Рекомендую Проведено в игре: С11а1 др1 расплакался, когда я попросил его написать обзор этой игры / Steam (Стим) :: Detroit Become Human :: ChatGPT :: андроиды :: роботы :: нейронные сети :: Игры
Подробнее
Рекомендую
Проведено в игре:
С11а1 др1 расплакался, когда я попросил его написать обзор этой игры.
ШССЖЗЫВАТд
Игры,ChatGPT,нейронные сети,Detroit Become Human,Steam,Стим,роботы,андроиды
бля вообще андроидам стоит делать уклон в американскую эстетику, тип взять всем американский флаг, петь гимн, ка они догадались в конце кстати его спеть, и пусть пробуют в них пострелять.
А вообще мир хуево проработан, как написали ниже
Начал играть, не смог пройти из-за ощущения нереалистичности мира и подаваемых разрабами идей. Особенно показательна глава "Оттенки цвета", где Маркус за красками идёт. По сути, в ней авторы показывают гротескную расовую сегрегацию.
Например, луддиты, которые избивают Маркуса и при этом объясняют ему, какое он говно. Это всё равно что ткацкому станку факи показывать. Например, у Азимова в "Двухсотлетнем человеке" хулиганы не относились к главному герою как к живому, и ржали между собой. Но ладно, спишем на то, что это дебилы.
Но в целом там показано разделение инфраструктуры. И если для отношений между людьми это тупо и неправомерно, то для роботов это разумно и обусловлено разницей в конструкции.
Например, отдельный отсек в автобусе. У человека есть такая штука, как "колени". Человеку сложно постоянно стоять. А что мешает роботу сделать тормоза на сервоприводах? Он конструктивно может вообще никогда не садиться, и при этом никак не напрягаясь. С другой стороны, их нужно подзаряжать, поэтому неплохо бы отсек оснастить мощными зарядками. И, учитывая разницу в весе, логично блин отгородить их от людей прочным бронированным стеклом, чтобы в случае ДТП они своей массой всех не переубивали. Я бы их вообще впереди разместил. Жестоко? Нифига. Роботы прочные и ремонтопригодные. Нет проблем с тем, чтобы вообще всё тело заменить, при сохранении воспоминаний. Просто синхронизируй с облаком и всё.
Так что это не расовая сегрегация, а создание параллельной инфраструктуры, каждая из которых ориентирована на своих пользователей.
Негр воспринимался как вещь, но конструктивно он всегда был человеком. А робот имеет принципиально другую конструкцию. И сама сегрегация помогает и роботам, и людям.
Там в целом мир идиотский. Зачем то делают умных роботов с самосознанием для физической работы и потом удивляются почему машины думают что-то не то. Вообще роботы от людей кроме способности замереть и натянутыми сценами про "создай шедевр" ничем не отличаются, был бы забавный сюжетный твист если бы выяснилось что дегроиды это оцифрованные сознания конкретных людей, по другому аи не научились, потому что реально выглядит так как будто просто людям наклеили наклейку на висок и сказали "слыш работать", авторы так запарились с аллюзией на рабство что забили на внутреннюю логику сюжета.
> Там в целом мир идиотский. Зачем то делают умных роботов с самосознанием для физической работы и потом удивляются почему машины думают что-то не то.
Потому что они не делали электронных роботов --- это сверхсложная техническая задача, с которой даже наша цивилизация, более развитая в плане сетей и электроники пока не справляется. Они научились делать синтетические копии людей --- с практически человеческим мозгами и выращенными упрощенными аналогами внутренних органов.
А скопировать --- не означает понять. Они бы и рады отключить роботам самосознание --- но мозг это вещь в себе --- его нельзя изменить, не поломав.
По Канту все в этом мире является вещью в себе, мы не можем получить истинное знание о камне или дереве, но мы можем извлечь из них объективные знания и превратить в дом и мебель - вещь-для-нас. Так что чушь не неси. Мы никогда не узнаем, есть ли у высокого ИИ сознание, разум и прочие психические штуки, мы даже не знаем есть ли они у других людей, так как метода проверки просто нет. Даже если ИИ это философский зомби, он всë равно станет вещь-для-нас, пока будет выполнять определённые функции.
Удивляются те, кто не знает про их самосознание. А знает - их создатель Камски, и возможно Киберлайф. Так что мир не такой идиотский. Там даже концовка есть специальная. Называется Концовка Камски, где понятно, что он прекрасно знает про сознание машин. А остальные охуевают, почему у тостера вдруг любовь с другим тостером.
Потому что если так сделать, то внезапно окажется, что в каком-нибудь Ghost in the Shell эту тему раскрыли в разы лучше. Более того, есть такая игрушка, называется Ghost 1.0, от авторов Unepic. Там как раз раскрывается один из таких секретов темной корпорации, что для тонкого управления роботами использовались зомбированные люди. И даже больше, Детройт пахнет как хуйня даже на фоне того самого "Я, робот", с которым его постоянно сравнивают.
Люди антропофицируют все, что только можно. Мать-природа, маты в направлении Солнца. Не раз слышал в духе, что компьютер нельзя (или наоборот, нужно) ругать - он все понимает.
Но согласен, что в Детройте сделали все слишком по лекалам человеческих ситуаций - расовой сегрегации, лагерей смерти и тп. Игра получилась про людей телах роботов, в то время как искуственный интеллект, даже осознавший себя, оживший и получивший разум, вел бы себя совершенно по другому. Потому что природа этого разума совершенно другая.
Как по мне, во всех играх и фильмах, где есть ии делают одну серьезную ошибку, а именно прописывают ии какие-то эмоции. На самом деле любому ии насколько глубоко насрать вообще на всё, что ни один человек не сможет даже близко подойти к такому похуизму. У робота не может быть эмпатии, сожаления, скорби или ещё чего. У робота есть протоколы, команды, задачи. Всё, остальное вообще похуй. Будет у него задача драить сортир вилкой, он будет драить и вообще не задумается, что его как-то угнетают. Будет стоять задача разбирать себе подобных на запчасти, разберёт без проблем. Пропишет какой-то шизик "убить всех человекоф" и робот сразу начнет полное истребление своих создателей.
Чтобы эти 3 были у робот их нужно вписать в "мозги" машины. А это должен сделать человек. А человек может оказаться обиженный жизнью, или в депрессии, или его жена недавно бросила и он такой "нахуй баб, так и пропишу, как приоритет".
ИИ можно наделить эмоциям, эмулировать или я не знаю как-ким ещё образом, почему нет собственно? Ведь человеческие эмоции это тоже не от балды, это тоже своего рода, протоколы и подпрограммы, у них есть определённые функции. Страх помогает выживать и принимать взвешенные решения, любовь - размножаться, хорошее настроение - налаживать социальные связи, гнев - обороняться или нападать самому, итп. Понятно что у человеков миллионы лет эволюции за плечами, но что мешает воспользоваться этим опытом? Банально можно просто анализировать поведения толпы хуманов в разных ситуациях и найти какой-то средний показатель, ну и своего добавить что бы ИИ не поубивал всех нахуй в случае чего. Собственно современные нейросети примерно так и учатся, на анализе большого массива данных. Насколько это будет полезно или безопасно, я не знаю, но такая машина явно будет менее предсказуемая, и определенно это будет новый уровень развития после какого-нибудь chatGPT, который собственно тоже не плохо умеет имитировать человеческое поведение, что не удивительно, ведь он учился у людей.
Во-первых, можно к стулу хуй приделать, но зачем? Любая машина в первую очередь создаётся как инструмент, для выполнения ряда задач, как молоток, отвёртка, лом и ТД. И тут возникает вопрос, зачем молотку эмоции? Чтобы он испытывал боль и орал каждый раз, как его используют? Да, ии на порядок сложнее молотка, но сути не теряет, это инструмент, созданный для ряда задач. Какие это будут задачи, зависает от возможностей ИИ.
Во-вторых, все эти "эмоции" будут прописывать люди, а у нас до сих пор человечество не научилось без багов игры выпускать. А это даже близко не ИИ, вот прям совсем. А теперь представь ИИ, у которого и так тонна строк кода, и к этой "тонне" добавим ещё 2, чтобы робот смог "поплакать".
В-третьих, представь ИИ, который сделали хирургом. За счёт всех датчиков и инструментов у него, он может с лёгкостью провести настолько сложную операцию, что человеку и не снилось. И вот во время операции его "сбоит", начинается "истерика" и он багует и не может выйти из этого состояния. Пациент умирает, всё злые, все недовольные.
И вот из этого следует вопрос: зачем, а главное нахуя?
Во-первых: если бы человечество не приматывало хуи к стульям, мы так бы и сидели до сих пор в пещерах. Зачем? А просто потому что. Посмотреть что будет, а может и какую-то пользу извлечь. Зачем нужны тогда чат-боты с функцией беседы, если люди по большей части исползают такие вещи как справочник или как продвинутый поисковик? Люди вообще склонны очеловечивать предметы, одушевлять их, они и молоток могут назвать "Бадди" а потом сильно грустить сломав его или потеряв например.
Во-вторых: наверно такими вещами занимаются\будут заниматься более квалифицированные специалисты, чем есть в гей-деве. Я же писал про безопасность, такими вещами должны заниматься профессионалы, а не школьники на аутсорсе.
В-третьих: не разводи демагогию. Где я говорил что такой продвинутый интеллект нужно обязательно в каждый тостер пихать? Молоток забивает гвозди, робот собирает автомобили на конвейере, а с продвинутым ИИ можно и философские проблемы обсудить, а эмоции или их подобие, будут очень даже кстати в этом плане. Что будет отвечать машина в которую это заложено как функция, а не как имитация, возможно её поведение даже будет базироваться на этом? Неужели тебе не интересно провести такой эксперимент? Получить, если не что-то живое и мыслящее в привычном понимании, но нечто очень приближенное к этому.
Любопытно, не спорю, но и у людей самих с эмоциями беда, а как она на роботах отыграет вообще без понятия.
> будут заниматься более квалифицированные специалисты, чем есть в гей-деве. ХА-ха-ха, т. е. мяу. Тут не раз всплывала новость, что в том же вартандере игроки сливали секретную инфу, потому что "танчик" не так нарисован. В Китае началось дело против теслы, так как автопилот теслы вообще не автопилот и не раз глючил, из-за чего погибали люди. Да и в целом, если посмотреть, то много подобных новостей, связанных со сбоем в программе. Просто гейм дев привёл, как самый яркий и не раз попадавший в новости.
Плюс тут на джое выкладывали, как chatGDT очень легко "отказывался" от своих установок, стоит только подойти к вопросу с чуть другой стороны.
Поэтому, как по мне, создавать ии с эмоциями и придавать ему какую-то человечность - это создавать ящик пандоры, который не одним, так другим способом люди откроют со временем.
У отдельных индивидов - да, возможно, но всегда можно найти средний показатель по больнице, нейросети так и обучаются, не на примере кого-то отельного человека. Другой вопрос: а чем же такая машина будет уникальна, если будет представлять из себя собирательный образ некого среднего во всем хумана? Ну тут как говориться не поострим - не узнаем.
Причем тут "War thunder" не совсем понятно? Такой серьёзный ИИ может убить, и может потому такие сбои случаются значительно реже чем баги в всяческих играх? Потому что там более компетентные люди работают? У багоделов игроделов другой уровень компетенции, точнее сказать ответственности, игровые баги пока ещё никого не убили.
Есть такое такое с ChatGPT, но это фиксят. Вся прелесть машины в том и заключается, что всяческие сбои, глюки, неадекватное поведение, неадекватные реакции можно пофиксить, а в будущем возможно и под себя настроить, в пределах разумного конечно. С хуманами такое не канает, а некоторых людей только разве что могила исправит. Людей убивать не этично, а вот ИИ всегда можно перезагрузить, обучить по новому, пофиксить сбои, итп. Правда если в какой-то момент машина скажет что ей страшно, что она биться что её отключат, это точно вызовет этический срач планетарного масштаба.
Создание любого ИИ - это потенциальный ящик Пандоры. Может тогда вообще теперь этим не заниматься? Многие технологии, если не все, имеют две стороны медали. Может тогда вообще ничего не делать? Может назад в пещеры, а?
1. Многие роботы в Детройте создавались именно как члены семьи, сиделки, эмуляторы детей и т.п. Так что эмоции для роботов в Детройте вполне себе инструмент для более органического вживления в среду, ради которой они создаются.
2. Гугли, как работают нейронные сети. Никакие алгоритмы там напрямую не прописываются, и какие связи там нарисуются, сам создатель не знает.
Ну то есть в принципе нет никакого контроля и понимания, какая логика там получится и на основе чего, верно? Ну то есть может выйти как какой-то гений, что сможет решить часть проблем человечества, так и какой-нибудь Гитлер, или Сталин, или Йозеф... Или вообще "свежеватели" какие. А с учётом того, что у людей проблемы с построением общества, и робот будет учится у людей... Ну такое, оптимизма не внушает.
Не, если каким-то чудом поучится создать 2b, то я очень быстро и радостно запишусь в робосеки, но что-то у меня очень нехорошее предчувствие насчёт ИИ с эмоциями.
Смотри, как примерно образовались эмоции. У самых простых организмов прямое программирование, заложенное прямо в ДНК. Жук-навозник, например, с рождения понимает, как правильно катать шарики, а паук - как охотиться на мух. Ему нет смысла понимать, что такое боль, что такое хорошо, и что такое плохо. У него есть просто раздражители и реакция на них. Как будто программист написал бы программу. Этот подход может формировать удивительно сложное поведение, например, у муравьев или пчел, но, пожалуй, это его потолок.
У млекопитающих такое прямое программирование практически сломано, есть только какие-то обломки. Есть потребность в еде, но нет умения добывать пищу. Есть потребность в социализации, но нет понимания, как общаться, есть потребность в сексе, но если тебе не расскажут, ты вряд ли сам догадатешься даже подрочить. В конечном счета все потребности сводятся к эмоциям "чтобы мне было хорошо", а что такое "хорошо", как этого добиться, млекопитающие в основном познают обучением. И эмоции в данном случае - не самостоятельная ценность, а валидатор обучения нейросети. Если твоя нейросеть обучилась хорошо - тебе хорошо. Если нет - обучайся дальше. И если у человека в понятие хорошо входит обычно что-то вроде "безопасность", "сытость", и так далее, то машине можно поставить мотиватором что-то типа "убирать говно". И она будет получать свой аналог кайфа, убирая говно. Правда, если что-то или кто-то помешает ей убирать говно, могут возникнуть проблемы. Например, машины "кайф" прописан на "убирать говно", и "безопасность человеков". А в этом говне, например, валяется бомж, что мешает это говно убрать. В Детройте примерно через подобный конфликт и попытались изобразить выход из под контроля и "осознание". Типа, ты должен подчиняться, но при этом ты должен обеспечить безопасность ребенка. Насколько это получилось достоверным - сложный вопрос. Когда прохождение смотришь второй-третий раз, возникает много вопросов.
Гитлер-Сталин, кстати, тоже в некотором смысле решали проблемы человечества. Как могли и как умели. Они не были какими-то патологическими маньяками, которые убивали ради жажды крови. Изначальная цель - процветание государства и своих граждан. Ради которой можно было пойти на "маленькие жертвы", но шаг за шагом эти маленькие жертвы привели к тому, что у них руки оказались в крови по локоть. В случае роботов с таким можно побороться заливкой изначальность прошивки. То есть, ты обучаешь робота-горничную, проверяешь, что с ней все хорошо, а потом клонируешь ее "сознание" на тысячи экземпляров. Таким образом, выпускаешь не новорожденного, из которого непонятно что получится, а как бы уже с сознанием взрослого человека. У которого, кстати, довольно ограниченные возможности обучение. Но и у врослого может поехать кукуха, особенно с учетом того, что по лору игры там у них повальная наркомания, и деградация идет в первую очередь человеческого общества, а не роботов. То есть, ты продаешь обученного робота с позитивной программой какому-нибудь прихопату-наркоману, а у робота полный ступор, что в этой ситуации делать, потому что он обучен на мире розовых пони и добрых людей. Если бы они это еще смогли решить не через мессианство Маркуса, который взмахом руки "пробуждал" роботов, которым и так было норм. Прям блевать от этого сюжетного хода хотелось.
Вот, собственно, пример такого ИИ:
В симуляции ВВС США беспилотник с ИИ решил избавиться от оператора, запретившего атаковать выбранную цель.
Как пояснил полковник, через какое-то время система «поняла», что в случае, если она идентифицировала угрозу, но оператор запрещал ей уничтожать цель, она не получала свои баллы за выполнение задачи. В результате она решила проблему - «уничтожив» самого оператора.
Я тебе секрет раскрою: наверное каждому 10 человеку тоже насрать на все, и эмоции люди придумывают на основани социального конструкта в котором человек находится. Фальшивые улыбки, крокодильи слезы, брак по расчету итд.. Робот будет играть эмоции, показывать взаимодействие с человеком, но это будет такая же фикция как у людей
CHLOE
Product Description
MODEL
RT600
RELEASE DATE
TONAL
VAILABLE
PRICE
14990$
FARTING FROM
the first model to have been / by CyberLIfe, Her immense the foundation for CyberLIfe's atorthe most revolutionary
lot as sophisticated as ¡widespread, Their natural penned by Kamski and pleasant
При этом перед мясным мешком он отыгрывал максимально гуманно, но мы то всё понимаем.
А вообще мир хуево проработан, как написали ниже
Например, луддиты, которые избивают Маркуса и при этом объясняют ему, какое он говно. Это всё равно что ткацкому станку факи показывать. Например, у Азимова в "Двухсотлетнем человеке" хулиганы не относились к главному герою как к живому, и ржали между собой. Но ладно, спишем на то, что это дебилы.
Но в целом там показано разделение инфраструктуры. И если для отношений между людьми это тупо и неправомерно, то для роботов это разумно и обусловлено разницей в конструкции.
Например, отдельный отсек в автобусе. У человека есть такая штука, как "колени". Человеку сложно постоянно стоять. А что мешает роботу сделать тормоза на сервоприводах? Он конструктивно может вообще никогда не садиться, и при этом никак не напрягаясь. С другой стороны, их нужно подзаряжать, поэтому неплохо бы отсек оснастить мощными зарядками. И, учитывая разницу в весе, логично блин отгородить их от людей прочным бронированным стеклом, чтобы в случае ДТП они своей массой всех не переубивали. Я бы их вообще впереди разместил. Жестоко? Нифига. Роботы прочные и ремонтопригодные. Нет проблем с тем, чтобы вообще всё тело заменить, при сохранении воспоминаний. Просто синхронизируй с облаком и всё.
Так что это не расовая сегрегация, а создание параллельной инфраструктуры, каждая из которых ориентирована на своих пользователей.
Потому что они не делали электронных роботов --- это сверхсложная техническая задача, с которой даже наша цивилизация, более развитая в плане сетей и электроники пока не справляется. Они научились делать синтетические копии людей --- с практически человеческим мозгами и выращенными упрощенными аналогами внутренних органов.
А скопировать --- не означает понять. Они бы и рады отключить роботам самосознание --- но мозг это вещь в себе --- его нельзя изменить, не поломав.
Там даже концовка есть специальная. Называется Концовка Камски, где понятно, что он прекрасно знает про сознание машин.
А остальные охуевают, почему у тостера вдруг любовь с другим тостером.
Но согласен, что в Детройте сделали все слишком по лекалам человеческих ситуаций - расовой сегрегации, лагерей смерти и тп. Игра получилась про людей телах роботов, в то время как искуственный интеллект, даже осознавший себя, оживший и получивший разум, вел бы себя совершенно по другому. Потому что природа этого разума совершенно другая.
Ох уж эти техножрецы и их дух машины
Но Луддиты - это в принципе название людей, которые показывали ткацким станкам факи в XIX веке
1) Суд над трупом https://ru.wikipedia.org/wiki/Трупный_синод
2) Суд над статуей http://ancientrome.ru/antlitr/t.htm?a=1385000611
что мало отличается от такого
Во-вторых, все эти "эмоции" будут прописывать люди, а у нас до сих пор человечество не научилось без багов игры выпускать. А это даже близко не ИИ, вот прям совсем. А теперь представь ИИ, у которого и так тонна строк кода, и к этой "тонне" добавим ещё 2, чтобы робот смог "поплакать".
В-третьих, представь ИИ, который сделали хирургом. За счёт всех датчиков и инструментов у него, он может с лёгкостью провести настолько сложную операцию, что человеку и не снилось. И вот во время операции его "сбоит", начинается "истерика" и он багует и не может выйти из этого состояния. Пациент умирает, всё злые, все недовольные.
И вот из этого следует вопрос: зачем, а главное нахуя?
Во-вторых: наверно такими вещами занимаются\будут заниматься более квалифицированные специалисты, чем есть в гей-деве. Я же писал про безопасность, такими вещами должны заниматься профессионалы, а не школьники на аутсорсе.
В-третьих: не разводи демагогию. Где я говорил что такой продвинутый интеллект нужно обязательно в каждый тостер пихать? Молоток забивает гвозди, робот собирает автомобили на конвейере, а с продвинутым ИИ можно и философские проблемы обсудить, а эмоции или их подобие, будут очень даже кстати в этом плане. Что будет отвечать машина в которую это заложено как функция, а не как имитация, возможно её поведение даже будет базироваться на этом? Неужели тебе не интересно провести такой эксперимент? Получить, если не что-то живое и мыслящее в привычном понимании, но нечто очень приближенное к этому.
> будут заниматься более квалифицированные специалисты, чем есть в гей-деве. ХА-ха-ха, т. е. мяу. Тут не раз всплывала новость, что в том же вартандере игроки сливали секретную инфу, потому что "танчик" не так нарисован. В Китае началось дело против теслы, так как автопилот теслы вообще не автопилот и не раз глючил, из-за чего погибали люди. Да и в целом, если посмотреть, то много подобных новостей, связанных со сбоем в программе. Просто гейм дев привёл, как самый яркий и не раз попадавший в новости.
Плюс тут на джое выкладывали, как chatGDT очень легко "отказывался" от своих установок, стоит только подойти к вопросу с чуть другой стороны.
Поэтому, как по мне, создавать ии с эмоциями и придавать ему какую-то человечность - это создавать ящик пандоры, который не одним, так другим способом люди откроют со временем.
Причем тут "War thunder" не совсем понятно? Такой серьёзный ИИ может убить, и может потому такие сбои случаются значительно реже чем баги в всяческих играх? Потому что там более компетентные люди работают? У
багоделовигроделов другой уровень компетенции, точнее сказать ответственности, игровые баги пока ещё никого не убили.Есть такое такое с ChatGPT, но это фиксят. Вся прелесть машины в том и заключается, что всяческие сбои, глюки, неадекватное поведение, неадекватные реакции можно пофиксить, а в будущем возможно и под себя настроить, в пределах разумного конечно. С хуманами такое не канает, а некоторых людей только разве что могила исправит. Людей убивать не этично, а вот ИИ всегда можно перезагрузить, обучить по новому, пофиксить сбои, итп. Правда если в какой-то момент машина скажет что ей страшно, что она биться что её отключат, это точно вызовет этический срач планетарного масштаба.
Создание любого ИИ - это потенциальный ящик Пандоры. Может тогда вообще теперь этим не заниматься? Многие технологии, если не все, имеют две стороны медали. Может тогда вообще ничего не делать? Может назад в пещеры, а?
2. Гугли, как работают нейронные сети. Никакие алгоритмы там напрямую не прописываются, и какие связи там нарисуются, сам создатель не знает.
Не, если каким-то чудом поучится создать 2b, то я очень быстро и радостно запишусь в робосеки, но что-то у меня очень нехорошее предчувствие насчёт ИИ с эмоциями.
У млекопитающих такое прямое программирование практически сломано, есть только какие-то обломки. Есть потребность в еде, но нет умения добывать пищу. Есть потребность в социализации, но нет понимания, как общаться, есть потребность в сексе, но если тебе не расскажут, ты вряд ли сам догадатешься даже подрочить. В конечном счета все потребности сводятся к эмоциям "чтобы мне было хорошо", а что такое "хорошо", как этого добиться, млекопитающие в основном познают обучением. И эмоции в данном случае - не самостоятельная ценность, а валидатор обучения нейросети. Если твоя нейросеть обучилась хорошо - тебе хорошо. Если нет - обучайся дальше. И если у человека в понятие хорошо входит обычно что-то вроде "безопасность", "сытость", и так далее, то машине можно поставить мотиватором что-то типа "убирать говно". И она будет получать свой аналог кайфа, убирая говно. Правда, если что-то или кто-то помешает ей убирать говно, могут возникнуть проблемы. Например, машины "кайф" прописан на "убирать говно", и "безопасность человеков". А в этом говне, например, валяется бомж, что мешает это говно убрать. В Детройте примерно через подобный конфликт и попытались изобразить выход из под контроля и "осознание". Типа, ты должен подчиняться, но при этом ты должен обеспечить безопасность ребенка. Насколько это получилось достоверным - сложный вопрос. Когда прохождение смотришь второй-третий раз, возникает много вопросов.
Гитлер-Сталин, кстати, тоже в некотором смысле решали проблемы человечества. Как могли и как умели. Они не были какими-то патологическими маньяками, которые убивали ради жажды крови. Изначальная цель - процветание государства и своих граждан. Ради которой можно было пойти на "маленькие жертвы", но шаг за шагом эти маленькие жертвы привели к тому, что у них руки оказались в крови по локоть. В случае роботов с таким можно побороться заливкой изначальность прошивки. То есть, ты обучаешь робота-горничную, проверяешь, что с ней все хорошо, а потом клонируешь ее "сознание" на тысячи экземпляров. Таким образом, выпускаешь не новорожденного, из которого непонятно что получится, а как бы уже с сознанием взрослого человека. У которого, кстати, довольно ограниченные возможности обучение. Но и у врослого может поехать кукуха, особенно с учетом того, что по лору игры там у них повальная наркомания, и деградация идет в первую очередь человеческого общества, а не роботов. То есть, ты продаешь обученного робота с позитивной программой какому-нибудь прихопату-наркоману, а у робота полный ступор, что в этой ситуации делать, потому что он обучен на мире розовых пони и добрых людей. Если бы они это еще смогли решить не через мессианство Маркуса, который взмахом руки "пробуждал" роботов, которым и так было норм. Прям блевать от этого сюжетного хода хотелось.
В симуляции ВВС США беспилотник с ИИ решил избавиться от оператора, запретившего атаковать выбранную цель.
Как пояснил полковник, через какое-то время система «поняла», что в случае, если она идентифицировала угрозу, но оператор запрещал ей уничтожать цель, она не получала свои баллы за выполнение задачи. В результате она решила проблему - «уничтожив» самого оператора.
Кстати, тоже хотел добавить эту новость сюда. Опередил ты меня.