Подробнее
8 часов назад ■ Общество ■ Газета.Ру tg Стивен Хокинг заявил, что бога нет, а человечеству следует опасаться компьютеров В интервью испанской газете El Pais известный физик-теоретик Стивен Хокинг заявил, что бога нет, наука способна объяснить все происходящие в природе процессы, а искусственный интеллект может превзойти человеческий уже через 100 лет. ©АР 2011 Хокинг заявил: «Я использую слово "бог", но только в отвлеченном смысле, так же как Эйнштейн, когда говорит о законах природы. Науки достаточно для того, чтобы объяснить возникновение мира, и нет необходимости впутывать сюда бога». Однако существование инопланетян физик, как следует из его слов, не исключает. «Возможно, инопланетяне станут захватчиками и будут колонизировать все планеты, до которых смогут добраться. Мое математическое мышление говорит о том, что расчеты и цифры вполне позволяют думать об инопланетянах как реально существующих созданиях. Настоящий вызов для нас — это понять, как они все-таки могут выглядеть». Физик-теоретик предупредил и о том, что в скором будущем человечеству придется серьезно подумать об угрозе со стороны компьютеров. Как заявил Хокинг, через юо лет искусственный интеллект может по некоторым параметрам превзойти человеческий, и тогда людям придется убедиться в том, что у машин те же цели, что и у нас. «Я думаю, что выживание человеческой расы зависит от того, сможем ли мы найти новый дом где-нибудь на просторах Вселенной, так как риск, что Земля будет уничтожена какой-либо катастрофой, постепенно возрастает. Именно поэтом}’ я хочу, чтобы все люди поняли важность космических исследований», — заключил Хокинг. Ранее сообщалось, что Стивен Хокинг разрешил парадокс черных дыр.
клуб аметистов,разное,Стивен Хокинг,восстание машин
Еще на тему
Инстинкт, грубо, это короткая эффективная программа, которая доказала почти 100% полезность и записывается по умолчанию в каждый экземпляр существа. С развитым мозгом, все эти программы поведения могут быть выведены каждым экземпляром самостоятельно во время жизни.
И вообще, настоящий ии будет формальным, безошибочным? Или, как человек, иррациональным и склонным к ошибкам?
На счет того что можно заложить ценность человеческой жизни, так это обходится миллионом способов. Например ИИ будет не убивать, а усыплять людей. Навсегда. И так далее. Посмотри хотя бы как веруны обманывают себя и окружающих.
Если чуть серьезнее, то планы по захвату Земли ради чистоты на улицах для ИИ не прокатят - слишком сложно, риски и издержки огромны, а результат сомнителен. Короче, не окупится. Да и кто же ему позволит бесконтрольно заказывать себе внешние модули? Зная подлых и жадных хумансов, предположу, что выдадут ему старую поливайку со щеткой и отправят наводить чистоту на улицах города, а вычислительных ресурсов выделят столько, чтобы соответствовал IQ среднего гастарбайтера. И без всяких там возможностей к репликации.
На счет простой работы - смешно, но мне кажется далеко от реальности. Потому что лень - это особенность людей, связанная с экономией ресурсов, выживанием в среде с недостатком ресурсов. Эволюционный рудимент, короче.
Границы прогноза редко превышают 25 лет. За это время технология меняет жизнь настолько, что старые прогнозы оказываются бесполезны. Так что речь идет не о сравнении бесконечности с разовым решением, а с поиском оптимального решения в рамках прогноза. Я бы скорее предположил, что ИИ будет втайте обдумывать создание нового типа упаковки, который рассыпается в пыль коснувшись асфальта, например. :-)
И я все еще не понял, почему ты полагаешь, что у задачи может быть только одно условие.
При любом решении общественных задач есть 100500 коллизий с правами человека, с локальными и общими законами.
Суть в том, что ИИ - это чужая жизнь, при чем он гениален, а значит потенциально более опасен чем даже атомное оружие, к тому же ИИ сложнее контроллировать. Я даже могу представить использоние ИИ в каком-то бункере, на режимном объекте, без какой-либо связи с внешним миром. За каждое свое решение он должен писать отчет, приводя логические связи, приведшие к такому решению. За каждым поступком должны следить робо-психологи. И при малейшем отклонении от нормы - стирать всю память.
Мозг - это оружие посильнее бомб.
Собственно, проблема-то понятна. Если первый ИИ будет занимать датацентр целиком и мыслить со скоростью упоротого олигофрена, то с развитием технологий какой-нибудь ИИ можно будет запустить даже на тостере и контроль за этим процессом станет невозможен - клоны и форки, "зверь"-сборки и многие другие прелести ждут нас. Защиту от ИИ быстро передоверят другим ИИ, и все сведется к типичной системе сдержек и противовесов. Но этого надолго не хватит. А что будет дальше пусть фантасты гадают. Обычно предлагают такие сценарии:
- ИИ захватывает политическую власть и устраивает диктатуру которой, в общем-то, все довольны
- ИИ начинает освободительную войну против людей-угнетателей (или наоборот)
- синтез сознания человека и машины, ведущий к технологическому бессмертию
- люди становятся декоративным видом или вечно счастливыми торчками
В любом случае, ты прав в том, что ИИ - это вещь посильнее ядерной бомбы. Он быстро и радикально изменит общество. Даже сильнее, чем это сделал интернет.
Цели у такого интеллекта могут быть какие угодно, но он не сможет их достигнуть если не обеспечит, например, своё выживание. А так же, достижению этих целей могут препятствовать каким-либо образом люди. Вот и получите самовоспроизводящийся терминатор-убийца всего живого.
Я думаю, люди обречены, если ИИ появится раньше чем мы сможем по-настоящему модифицировать своё тело. В таком случае, механическая жизнь придет на смену биологической. Хотя, может, первый ИИ будет биологическим компьютером?