Все таки мужику повезло.
Мог бы остаться еще и без денег. Плохо конечно, но деньги могут помочь в лечении.
За вами уже выехали...
А вообще, я бы сказал, что самосознание это как раз способность выбирать какие-либо цели.
И если мы получим самосознание, то вряд ли нам получится обуздать ИИ и давать ему приказы. Ибо он не стеснен ни физически, ни морально. Какой смысл ему что то делать?
Поэтому выгоднее как раз делать программы (имитацию ИИ) и личностные матрицы для некоторых целей.
Да, я описал мб самые простые варианты, которые просто осуществимы.
По поводу воспитания и пр, это конечно же гораздо лучше, но не в этом веке).
Самосознание вообще штука очень сложная по моему. Ее наличие вообще отличить нереально.
Я без самосознания и какого либо обучения и воспитания не получится.
Хех, но ведь времена меняются. В итоге получим, что машина будет учиться уже на собою вынесенных приговорах.
Ну вы знаете, эти ИИ.
ИМХО, есть две проблемы:
- решения они принимают на основании заложенной программы. То есть если ты делаешь сверхразвитую нейросеть, дико умную, способную оценивать обстановку, но в итоге, она будет все равно делать то, для чего она предназначалась. Если цель ее создания - сохранять человеческую жизнь, то она не будет мириться с потерями и не сможет жертвовать. Если защита окружающей среды - то компьютер переложит всех людей ради спасения зверушек. Выбор ее всегда будет зависеть от того, что хочет человек ее создавший. (внезапно и в человеке тоже есть такая часть, и проявляется она, когда инстинкты лезут наружу, но есть один нюанс)
- принятие решений с учетом саморазвития и пр. Тут начинается полный абзац. Если с первой проблемой можно "договориться" путем уменьшения сферы влияния ИИ и заставлять компьютеры делать то, что описано в 3 пункте, то с поведением машины, которой дали выбор и саморазвитие, но каких-либо четких рамок нет - договориться будет нереально сложно. Ибо на человека мы еще можем более понять, что влияет, можем понять что влияет на животного, но что захочет делать компьютер, и исходя из каких факторов он будет принимать решение - огромный вопрос.
По моему - выход в том, чтобы для начала создавать личностные матрицы. То есть копировать характер определенных людей и на основании этого уже внедрять ИИ на ответственные объекты. Потом, мб и получится создать что то более самостоятельное, способное к саморазвитию и принятию решений.
Ну хоть не сержант Дорнан позвонил...
Вот немного про вертолет.
сравнивать машину, которая едет по бездорожью и выдерживает ралли, и машину, которая едет только во взлетке и то, несколько минут...