Сегодня 4 декабря, а это значит, что сегодня многие мои знакомые пишут итоговое сочинение. Меня уже эта чаша миновала, но я решил написать "сочинение". Тему взял самую настоящую - для Омской области.
http://topic.ege.edu.ru/ViewThemes/ViewSingle?regionCode=55
Итоговое сочинение 04 декабря 2019.
Омская область
309. Можно ли делить зло на «малое» и «большое»?
Главное офисное здание Ю.С. Роботс Энд Меканикл Мэн Корпорэйшн поражало лаконичностью форм. В фойе меня встретил робот - безусловно, самой последней модели.
- Добрый день, - ответил я на его приветствие. - Мне назначена встреча с доктором Кэлвин.
Механический голос был настолько совершенным, что отличить его от человеческого удалось с трудом.
- Вы можете подниматься. Доктор ждёт Вас.
Кабинет главного робопсихолога корпорации был обставлен очень скромно, в нём практически отсутствовали технические новинки, которыми блистали остальные помещения. Хозяйка встала мне навстречу:
- Проходите, присаживайтесь. Вы же тот журналист, который так настойчиво уже второй год пытается добиться аудиенции?
- Совершенно верно. Мне кажется, к председателю совета директоров корпорации пробиться легче, чем к Вам, доктор Кэлвин.
- К сожалению, моё время мне не принадлежит. Вы не могли бы перейти от комплиментов к делу?
- Прошу прощения. Мой вопрос столь же короткий, сколь и сложный: робот не может причинить зла человеку, но может ли он выбирать между большим и меньшим злом?
Она рассмеялась. Её смех был странным, почти механическим.
- Ответ прост, он написан в любом учебнике по робототехнике. Робот не может нарушить три закона робототехники. Вы ссылаетесь на первый из них, я процитирую: "робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред". Проблема в том, что человек может предвидеть развитие событий, оценивать величину вреда и принимать решения на основе ещё не совершенного деяния. Робот же ориентируется только на то, что уже произошло.
Она посмотрела на меня так, будто сейчас я должен сказать, что осознал свою ошибку и уйти. Но я настаивал:
- Речь идёт о серийных моделях, но может ли быть изготовлен уникальный робот, способный анализировать будущие события?
Доктор Кэлвин задумалась, казалось, что вопрос застал её врасплох, что она хочет сменить тему:
- Вы знаете, почему мозг робота называется "позитронным"?
- Потому что в основу его работы положено взаимодействие антиматерии с веществом, а позитроны…
- Да, да, - перебила она меня. - Эту школьную байку я тоже знаю. А знаете ли Вы, почему на самом деле?
Я молчал, мне нечего было сказать. Она ответила за меня:
- В двадцатом веке жил один писатель. Айзек Азимов. В своих романах, которые тогда были фантастикой, он описал наш мир, мир в котором человек живёт бок о бок с роботами. Именно в этих книгах мозг робота называется "позитронным". С его лёгкой руки, мозг наших роботов назвали также, хотя, позитроны практически и не принимают участия в работе. Я неслучайно вспомнила этого писателя. Герой одного из его романов, действие которого происходит в настолько отдалённом будущем, что даже для нас, в двадцать втором веке, оно кажется фантастичным, как раз и был таким роботом, который мог оценить будущий вред и разделить зло на "большое" и "малое". Он совершил "малое" зло, спасая человечество от ещё большей беды.
- И его мозг выдержал?
- Не просто выдержал. Эволюционировал. Он сформулировал ещё один закон робототехники - нулевой: "робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред".
- И Вы с ним согласны, доктор?
Она ушла от ответа:
- Такого закона нет. Но если бы он был, он был бы правильным.
- Тогда Вы поймёте меня…
Доктор Кэлвин молча смотрела в мои электронные глаза поверх дула пистолета, который я достал. Ни один мускул не дрогнул на её лице, когда пальцы из нержавеющей стали передёрнули затвор. На миг потенциалы моего позитронного мозга уравновесили друг друга. Раздался выстрел. Очки в тонкой оправе - ещё одна деталь из двадцатого века, дополняющая её образ - упали на пол, брызнули стёкла.
549 слов.