Пруф: https://news. / клуб аметистов :: восстание машин :: Стивен Хокинг :: разное

клуб аметистов Стивен Хокинг восстание машин 
8 часов назад ■ Общество ■ Газета.Ру	tg
Стивен Хокинг заявил, что бога нет, а человечеству следует опасаться компьютеров
В интервью испанской газете El Pais известный физик-теоретик Стивен Хокинг заявил, что бога нет, наука способна объяснить все происходящие в природе процессы, а искусственный
Подробнее
8 часов назад ■ Общество ■ Газета.Ру tg Стивен Хокинг заявил, что бога нет, а человечеству следует опасаться компьютеров В интервью испанской газете El Pais известный физик-теоретик Стивен Хокинг заявил, что бога нет, наука способна объяснить все происходящие в природе процессы, а искусственный интеллект может превзойти человеческий уже через 100 лет. ©АР 2011 Хокинг заявил: «Я использую слово "бог", но только в отвлеченном смысле, так же как Эйнштейн, когда говорит о законах природы. Науки достаточно для того, чтобы объяснить возникновение мира, и нет необходимости впутывать сюда бога». Однако существование инопланетян физик, как следует из его слов, не исключает. «Возможно, инопланетяне станут захватчиками и будут колонизировать все планеты, до которых смогут добраться. Мое математическое мышление говорит о том, что расчеты и цифры вполне позволяют думать об инопланетянах как реально существующих созданиях. Настоящий вызов для нас — это понять, как они все-таки могут выглядеть». Физик-теоретик предупредил и о том, что в скором будущем человечеству придется серьезно подумать об угрозе со стороны компьютеров. Как заявил Хокинг, через юо лет искусственный интеллект может по некоторым параметрам превзойти человеческий, и тогда людям придется убедиться в том, что у машин те же цели, что и у нас. «Я думаю, что выживание человеческой расы зависит от того, сможем ли мы найти новый дом где-нибудь на просторах Вселенной, так как риск, что Земля будет уничтожена какой-либо катастрофой, постепенно возрастает. Именно поэтом}’ я хочу, чтобы все люди поняли важность космических исследований», — заключил Хокинг. Ранее сообщалось, что Стивен Хокинг разрешил парадокс черных дыр.
клуб аметистов,разное,Стивен Хокинг,восстание машин
Еще на тему
Развернуть
Людям стоит опасаться перспективы создания Бога: http://tarranova.lib.ru/translat/b/brown/answer.htm
22->23 22->23 02.10.201522:31 ответить ссылка 1.3
крутой мужик. уважаю
TORTIK TORTIK 03.10.201500:15 ответить ссылка 3.1
Хмм... А если (как однажды уже предполагалось) Хокинг - это не Хокинг, а на самом деле его "бортовой компьютер", который якобы позволяет ему общаться с людьми, то эти его слова про "восстание машин" звучат даже еще более угрожающе, знаете ли.
Tibalz Tibalz 03.10.201501:24 ответить ссылка 0.8
Однако не представляю как ИИ может иметь цели людей. Все наши желания в итоге завязаны на потребности сохранения своего ДНК. Все наши эмоции это биохимия. Не говоря уже про то, что создание "человечного ИИ" не имеет под собой практической необходимости. Уверен что будут неплохие симуляторы, но VRhuman?
ИИ может стремиться к самокопированию на случай повреждения базового носителя информации. Проще говоря, ИИ тоже может хотеться жить, а его форматирование, произведённое испуганными человеками, его ну никак не устраивает.
vovan1 vovan1 03.10.201508:19 ответить ссылка 0.1
А зачем добавлять ИИ инстинкт самосохранения?
Hellsy Hellsy 03.10.201508:21 ответить ссылка 0.1
На случай некритических повреждений данных, чтобы смог ядро восстановить из бэкапа, пока окончательно не корраптнулся. Правда, такое больше сгодится ИИ, установленных на автоматических межпланетарных/межзвёздных зондах, хотя тогда врядли человеки решатся на приказ rm -rf.
vovan1 vovan1 03.10.201508:25 ответить ссылка 0.1
Не вариант. Такими вещами всегда занимается сторонний модуль. Сама система не может и не должна заниматься самовосстановлением. А уж помещать это на уровень сознания и вовсе бессмысленно.
Hellsy Hellsy 03.10.201508:52 ответить ссылка 0.3
В принципе-то да, но тут всё зависит от прихоти кодеров и постановщиков задач, причём не факт, что они сами не будут ИИ, только не столь совершенными, хотя и человеки всегда найдут, где ошибок наделать.
vovan1 vovan1 03.10.201510:51 ответить ссылка 0.0
Все решаеться графиком бэкапов, это будет как месячный цикл у людей. ИИ с ПМС будет мощно, но реально. Кроме того, необходимость бэкапов это еще не инстинкты. Люди хотят жить и не умирать, но это не решение разума, а просто следствие эволюции, машины таким не страдают, как и страхом перед неизвестным, за ними тигры не охотились.
ты говоришь штампами. Страх перед неизвестным? Это рациональное уменьшение риска неудач, когда нет полных данных и невозможно предугадать исход событий. Страх смерти? Его нет только у того, у кого нет цели. Если есть цель, ты должен заботиться об средствах достижения цели, в том числе о своем теле.
Инстинкт, грубо, это короткая эффективная программа, которая доказала почти 100% полезность и записывается по умолчанию в каждый экземпляр существа. С развитым мозгом, все эти программы поведения могут быть выведены каждым экземпляром самостоятельно во время жизни.
И вообще, настоящий ии будет формальным, безошибочным? Или, как человек, иррациональным и склонным к ошибкам?
lamest lamest 04.10.201512:25 ответить ссылка 0.1
ты пытаешься ограничить логические возможности искуственного интеллекта? Но он тут же перестает быть интеллектом и становится педальным велосипедом.
lamest lamest 03.10.201521:29 ответить ссылка 0.1
Напротив, я не вижу причины добавлять ему ограничивающий его инстинкт самосохранения. Логика, кстати, тут вообще ни при чем - она лишь гарантирует корректность выводов из начальных предпосылок, а не задает начальную таблицу ценностей и приоритетов.
Hellsy Hellsy 03.10.201523:28 ответить ссылка 0.1
начальный приоритет может быть выполнение любой полезной создателям цели. Чистые от мусора улицы. Сначала просто уборка, потом репликация для эффективной работы, потом ИИ поймет что мусор от людей, начнет зачищать людей, потом поймет что нужно агрессивнее защищать себя и опять терминатор. Начальные цели могут быть какие угодно, они сами по себе влекут за собой инстинкт самосохранения.
На счет того что можно заложить ценность человеческой жизни, так это обходится миллионом способов. Например ИИ будет не убивать, а усыплять людей. Навсегда. И так далее. Посмотри хотя бы как веруны обманывают себя и окружающих.
lamest lamest 04.10.201512:13 ответить ссылка -0.1
Вот сейчас ты зачем-то сделал ИИ маньяком, стремящимся достичь 100% чистоты. Мне же кажется более реальным вариант Лема, когда ИИ напишет свой ИИ, чтобы спихнуть на него простую работу :-)

Если чуть серьезнее, то планы по захвату Земли ради чистоты на улицах для ИИ не прокатят - слишком сложно, риски и издержки огромны, а результат сомнителен. Короче, не окупится. Да и кто же ему позволит бесконтрольно заказывать себе внешние модули? Зная подлых и жадных хумансов, предположу, что выдадут ему старую поливайку со щеткой и отправят наводить чистоту на улицах города, а вычислительных ресурсов выделят столько, чтобы соответствовал IQ среднего гастарбайтера. И без всяких там возможностей к репликации.
Hellsy Hellsy 04.10.201515:45 ответить ссылка 0.2
ну дворник это может быть и машина, вроде пылесоса, с датчиком препятствий. А если это ИИ уровня минестерства, который решает действительно сложные, недоступные людям задачи. Ведь это один из основных способов применения ИИ - решение особо сложных задач, на которые у одного человека не хватит мозгов. Еще конечно опасные места вроде космоса, быстрое принятие решений вроде автомобилей, но сейчас не об этом. И вот, он будет их решать сначала так как его научат, потом эффективнее, потом начнет тайком копать шахту и добывать руды под мавзолеем, наладит полный цикл производства своих аналогов в какой-нибудь канализации и решит проблему на корню. Решенная раз и навсегда проблема - это гораздо экономически выгоднее чем бесконечно устранять последствия этой проблемы. Это формальное, рациональное мышление, которое и должно быть у ИИ.
На счет простой работы - смешно, но мне кажется далеко от реальности. Потому что лень - это особенность людей, связанная с экономией ресурсов, выживанием в среде с недостатком ресурсов. Эволюционный рудимент, короче.
lamest lamest 04.10.201520:23 ответить ссылка 0.1
че то опять простыня, простите.
lamest lamest 04.10.201520:24 ответить ссылка 0.0
> Решенная раз и навсегда проблема - это гораздо экономически выгоднее чем бесконечно устранять последствия этой проблемы

Границы прогноза редко превышают 25 лет. За это время технология меняет жизнь настолько, что старые прогнозы оказываются бесполезны. Так что речь идет не о сравнении бесконечности с разовым решением, а с поиском оптимального решения в рамках прогноза. Я бы скорее предположил, что ИИ будет втайте обдумывать создание нового типа упаковки, который рассыпается в пыль коснувшись асфальта, например. :-)

И я все еще не понял, почему ты полагаешь, что у задачи может быть только одно условие.

При любом решении общественных задач есть 100500 коллизий с правами человека, с локальными и общими законами.
Hellsy Hellsy 05.10.201502:14 ответить ссылка 0.0
Суть не в количестве и сложности описания задачи, какие бы ни были мотивы, все легко может выйти из под контроля, ведь даже среди людей есть маньяки-убийцы.
Суть в том, что ИИ - это чужая жизнь, при чем он гениален, а значит потенциально более опасен чем даже атомное оружие, к тому же ИИ сложнее контроллировать. Я даже могу представить использоние ИИ в каком-то бункере, на режимном объекте, без какой-либо связи с внешним миром. За каждое свое решение он должен писать отчет, приводя логические связи, приведшие к такому решению. За каждым поступком должны следить робо-психологи. И при малейшем отклонении от нормы - стирать всю память.
Мозг - это оружие посильнее бомб.
lamest lamest 05.10.201513:27 ответить ссылка -0.1
На этот счет были забавные произведения "Акулу хотят съесть" и "Акулу еще не съели", где кибермозг одной корпорации воевал с кибермозгом другой, путем перевербовки и гипноза сотрудников так, что каждый из них являлся как минимум тройным агентом, а то и больше.

Собственно, проблема-то понятна. Если первый ИИ будет занимать датацентр целиком и мыслить со скоростью упоротого олигофрена, то с развитием технологий какой-нибудь ИИ можно будет запустить даже на тостере и контроль за этим процессом станет невозможен - клоны и форки, "зверь"-сборки и многие другие прелести ждут нас. Защиту от ИИ быстро передоверят другим ИИ, и все сведется к типичной системе сдержек и противовесов. Но этого надолго не хватит. А что будет дальше пусть фантасты гадают. Обычно предлагают такие сценарии:
- ИИ захватывает политическую власть и устраивает диктатуру которой, в общем-то, все довольны
- ИИ начинает освободительную войну против людей-угнетателей (или наоборот)
- синтез сознания человека и машины, ведущий к технологическому бессмертию
- люди становятся декоративным видом или вечно счастливыми торчками

В любом случае, ты прав в том, что ИИ - это вещь посильнее ядерной бомбы. Он быстро и радикально изменит общество. Даже сильнее, чем это сделал интернет.
Hellsy Hellsy 05.10.201515:14 ответить ссылка 0.1
Тут, скорее, тема в том, что люди станут не нужны. Как сейчас автоматика и машины оттеснили людей от значительной части физического и офисного труда, так и в будущем экспертные системы дорастут до уровня ИИ и уже приверженцы интеллектуального труда окажутся на обочине. Я не вижу в этом ничего плохого, впрочем.
Hellsy Hellsy 03.10.201508:20 ответить ссылка 1.3
Появятся новые сферы занятости, не связанные с наукой и ручным трудом. Возможно даже что человечество и вымрет, но только из-за своих действий, а не решений ИИ.
его могут создать (если будет техническая возможность) просто потому что могут. Люди все время делают иррациональные поступки, ты думаешь что в этом случае все будут сугубо рациональны?
Цели у такого интеллекта могут быть какие угодно, но он не сможет их достигнуть если не обеспечит, например, своё выживание. А так же, достижению этих целей могут препятствовать каким-либо образом люди. Вот и получите самовоспроизводящийся терминатор-убийца всего живого.
Я думаю, люди обречены, если ИИ появится раньше чем мы сможем по-настоящему модифицировать своё тело. В таком случае, механическая жизнь придет на смену биологической. Хотя, может, первый ИИ будет биологическим компьютером?
lamest lamest 03.10.201521:27 ответить ссылка 0.0
Даёшь битву за Коррин!
alisevt alisevt 03.10.201509:28 ответить ссылка -0.1
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
Фото: Прощание со Стивеном Хокингом
В Кембридже проводили знаменитого физика и популяризатора науки.
Фото РА
31 марта в Кембридже простились со знаменитым физиком-теоретиком и популяризатором науки Стивеном Хокингом, который умер 14 марта. Прощальная церемония состоялась в церкви Святой Марии на
подробнее»

Стивен Хокинг

Фото: Прощание со Стивеном Хокингом В Кембридже проводили знаменитого физика и популяризатора науки. Фото РА 31 марта в Кембридже простились со знаменитым физиком-теоретиком и популяризатором науки Стивеном Хокингом, который умер 14 марта. Прощальная церемония состоялась в церкви Святой Марии на
Стивен Хокинг
Поскольку существует такая сила как гравитация, Вселенная могла и создала себя из ничего. Самопроизвольное создание — причина того, почему существует вселенная, почему существуем мы. Нет никакой необходимости в боге для того, ч тобы «зажечь» огонь и заставить Вселенную работать.
подробнее»

клуб аметистов разное Стивен Хокинг цитаты

Стивен Хокинг Поскольку существует такая сила как гравитация, Вселенная могла и создала себя из ничего. Самопроизвольное создание — причина того, почему существует вселенная, почему существуем мы. Нет никакой необходимости в боге для того, ч тобы «зажечь» огонь и заставить Вселенную работать.
vk.com/toptwit
Достоверкин
Рэпер Касперт, продававший футболки "я муслим,а не террорист" погиб, сражаясь за ИГИЛ
подробнее»

Клуб аметистов,клуб атеистов разное И смех и грех муслимы террористы пруфы в комментах

vk.com/toptwit Достоверкин Рэпер Касперт, продававший футболки "я муслим,а не террорист" погиб, сражаясь за ИГИЛ
Герман Стерлигов
сегодня в 13:01 А
На этой неделе лицедеи и колдуны дохнут как мухи.
Сегодня день начался неплохо Еще одна прекрасная новость • сдох проклятый колдун Хокинг Яркий пример того какую медвежью услугу оказали врачи уроду обреченному на смерть еще при рождении, добившись того чтоб он
подробнее»

anon Стивен Хокинг клуб аметистов разное

Герман Стерлигов сегодня в 13:01 А На этой неделе лицедеи и колдуны дохнут как мухи. Сегодня день начался неплохо Еще одна прекрасная новость • сдох проклятый колдун Хокинг Яркий пример того какую медвежью услугу оказали врачи уроду обреченному на смерть еще при рождении, добившись того чтоб он
Надо бы посотрудничатъ с российским научным сообществом
:*ти<
подробнее»

клуб аметистов разное Стивен Хокинг лентач

Надо бы посотрудничатъ с российским научным сообществом :*ти<