Философия. Известная проблема вагонетки
У меня возник вопрос связанный именно с этой темы. Я просматривал видео на ютубе, лекцию Гарварда, в которой речь шла о вагонетке, которая едет прямо на людей. С одной стороны один человек, с другой пять. Кто-то должен умереть. Преподаватель часто вбрасывал ещё информацию, каждый раз как бы расширяя кругозор студента, что меняло часто их мнение. Сама тема вроде как посвящена морали и чему-то подобному, но увидел я совершенно другой смысл для себя.
Для меня данная ситуация рассматривается совершенно по-другому. Суть лекции я увидел не в морали и чем-то подобном, а в том, что каждый раз преподаватель пытался изменить мнение студентов, тем самым выводя их мнения из равновесия. Он вмешивался в судьбу другого человека каждый раз, тем самым ученик не мог иметь собственного мнения.
Если пораскинуть мозгами, то в любом из обоих случаев погибают люди, независимо от всего. Будут в любом случае печальные последствия, но, когда каждый ученик находится в этой вагонетке, то он должен самостоятельно принять мнение, потому что верного решения в такой ситуации нет, а сам учитель - просто словно дьявол, пытается вмешаться в судьбу этого человека и тех, кто лежит на рельсах, тем самым вывод лекции заключается в том, что влияние на чужую жизнь таким образом - это плохо. Также, что твоё мнение должно оставаться собственным, а не навязанным кем-то, когда тем более речь идёт о ситуации, когда верного хода нету
Собственно, мой вопрос заключался в том: увидел ли я что-то своё и это абсолютно нормально, а то и хорошо, или я просто не понял тему? Я увидел совершенно другое по итогу, не то, что вроде как должен был.
Возможно это все как-то глупо, что пришло мне в голову, но хочется узнать мнение других людей.
Мне просто кажется, что из каждой ситуации человек выводит собственную мораль. И это нормально, когда у кого-то пришло в голову не то, что у всех
Источник: https://youtu.be/-Qa6jmR_p0o

- Всё просто! Для человека? Сделать всё возможное чтобы вагонетка (или поезд) остановилась. Что касаемо робота с ИИ? Тогда относительно квантового компьютера... если в %?.. -Хм-м-м... Тогда надо разобраться. Тут не хватает некоторых переменных. И вот каких:
1) Для принятия решений требуется чтобы роботу было... от 20 до 30 лет по чел. меркам.
2) НЕРАЗВИТЫЙ Искусственный Интеллект не может принять адекватного решения в следствии своего несовершенства и только упования на алгоритмы. (Чистая инвариантная вероятность в математическом виде).
3) Робот должен пройти весь человеческий путь! (Привязка к перовому пункту).
4) Полная несостоятельность такого вопроса. Это абсурд! В такой ситуации машинист всегда будет в курсе такого происшествия. За исключением отдельного пути, когда ЖД находится в зонах отдалённых от населённых пунктов.
5) Можно поставить эксперимент с ребёнком, которому пять лет. Построить игрушечную ЖД. со всеми условиями вопроса. И посмотреть что будет.
а) Если ребёнок нажмёт на кнопку, то поезд поедет по отстроенному пути - прямо.
б) Если объяснить ребёнку что есть ещё одна кнопка, которая переводит пути, то он переключит. Но поезд поедет по указанному пути.
в) Но есть ещё один момент. Вот если ребёнку не понравится, что на путях лежит какое-то препятствие, мешающее проезду поезда, то это и будет означать первый принцип интеллекта (хоть и основанный на рефлексе).
г) А вот если ребёнок будет знать всю ситуацию происходящего и знать разницу между плохим и хорошим, тогда существует вероятность, что он поймёт и сделает всё возможно для полной остановки поезда. К сожалению... вероятность такого стремится к нулю. Ибо ребёнку в пять лет трудно объяснить почему нельзя делать то или иное. Такого произойти не может. Не хватает знаний в области нравственных поступков и т. п..
Созданный Искусственный Интеллект будет полноценно работать и принимать решения, тогда, когда Он будет полностью понимать всю цепочку нравственно - этических норм и отдавать себе отсчёт в поведении.
На сегодня... если и создадут такой интеллект, то он склонен принимать решения исходя из двоичного кода или (в будущем) квантов кубитов. Исходя из математической вероятности. Где важным будет... сама цель прибытия из пункта "А" в пункт "Б", не смотря на любые препятствия.
Учитель выступает в роли не дьявола, а дополнительной информации на основе которой принимается решение. То есть человек принимает решение основываясь на имеющейся у него на данный момент информации. Это говорит о том, что не существует алгоритма.
И кстати для человека это не является проблемой. Проблема возникает у программиста, который должен запрограммировать робота на алгоритмическое решение всех возможных вариантов.
Суть этого мысленного эксперимента становится понятной только в контексте группы таких экспериментов с изменяющимися условиями. Так, например, выяснилось, что большинство людей переведут рычаг, чтобы спасти пятерых, но, при этом, большинство людей не стало бы толкать на рельсы человека, чтобы остановить вагонетку, едущую на пятерых.
Само ваше предположение основано на ошибочном допущении того, что существует некий "свободный выбор", что, конечно же, не так, т. к. всякий ваш выбор это нейрофизиологический процесс, при котором ваши апперцепция и поступающие в настоящий момент данные обрабатываются вашим мозгом под влиянием особенностей генетически обусловленной структуры мозга и биохимических процессов протекающих в вашем организме.
Запомния всегда есть выход. Мой вариант: опрокинуть вагонетку набок и рискнуть собой