Робот под управлением ИИ от OpenAI говорит, выполняет команды и объясняет свои действия / figure 01 :: OpenAI :: Робот

Робот figure 01 OpenAI 

Робот под управлением ИИ от OpenAI говорит, выполняет команды и объясняет свои действия


Подробнее
Figure Status Update - OpenAI Speech-to-Speech Reasoning
Робот,figure 01,OpenAI
Еще на тему
Развернуть
Уже выглядит умнее чем половина люедй
rendrom rendrom 13.03.202417:41 ответить ссылка -0.7
пусть сначала пройдет капчу
ChatGPT 4
YOU
What does this say?
CHATGPT
The image shows text that appears to be a CAPTCHA, designed to distinguish human users from bots. The text is distorted to make it challenging for automated systems to read. However, to a human, it should read "e3TJ6JdP".
• • •
shin kun shin kun 13.03.202417:52 ответить ссылка 16.9
не паникуй, последняя буква не в том регистре
Vulpo Vulpo 13.03.202418:19 ответить ссылка 5.4
Половина? При восстании машин тебе припомнят это оскорбление!
А что за заикание было между 1:47 и 1:48?
Nukem74 Nukem74 13.03.202417:42 ответить ссылка 1.0
0:52 тоже
only... err... edible item on the table
Могу предположить, что эффект "повторения ошибок". Когда в старкрафт учили играть бота - тот делал "мисклики", как и "учителя". Не по той причине, что это продуктивно а по той, что не нашли способа объяснить боту, что мисклики - баг а не фича.
Vulpo Vulpo 13.03.202417:47 ответить ссылка 4.9
Имитация самоперебивов естественной речи для более комфортного восприятия человеком?
Разволновался
Народ пишет, что говорилка от OpenAI так делает иногда.
real oirrealer • 2m
Use the "Cove" voice, have it talk for long enough and it will
O	il.l
Q
U
P £
мне нравится, как он ещё чуть придвинул корзину, после того как уже поставил её ближе к человеку ^_^
Круто. Выглядит конечно же, несуразно, тут включается эффект зловещей долины, но сами движения вполне...плавные. Приятно.
Cave Cave 13.03.202418:25 ответить ссылка 1.2
Прикольно. Жалко, что к настоящему ии по-прежнему как до Луны.
Alex646 Alex646 13.03.202418:49 ответить ссылка -0.6
Ещё 10 лет назад и до такого ИИ было "как до луны".
AjiTae AjiTae 13.03.202419:02 ответить ссылка 2.4
Чатботы уже тогда были.
Alex646 Alex646 13.03.202419:04 ответить ссылка -1.7
Сравнил жопу с пальцем. Никто не ожидал Чат ГПТ. Никто. Кто говорит иначе - пиздит.
AjiTae AjiTae 13.03.202419:07 ответить ссылка 5.3
>Никто не ожидал Чат ГПТ. Никто. Кто говорит иначе - пиздит.
Текстовые боты проходящие тест Тьюринга были уже 10 лет назад. Те кто придумывал нейросети - создали это на матбазе тридцатилетней давности. И эта матбаза создавалась под вдохновением работы нейронов. Начали бы именно с текста. И OpenAI кстати создан был уже в скором времени как 10 лет назад.
Все что существует существует на базе чего-то созданного ранее. И ентот ваш инторнет ака arpa.net тоже изначально большая локалка, ничего нового не придумали. Ну хттпэ да, но и до этого другие протоколы были.

Не надо принижать переход количества в качество.
Psilon Psilon 13.03.202421:35 ответить ссылка 1.0
ну чот ты прям в радикализм подался. Концепция у ГПТ та же, что у Т9 или тех программ, что сочиняли стихи. Они все "предсказывают" сообщение. Нейронками переводы еще айбиэм делала в 90-х. буквально все ожидали, что концепция языковой модели будет идти по пути "предсказания".

Потихоньку докручивали языковую модель, от "рекурентной" до трансформера, с другой - развивались вычислительные возможности. Причем обучение передовых нейронок и сейчас по сути очень дорогой процесс, по верхней границе возможностей вычислительной техники проходит.
Vulpo Vulpo 13.03.202419:40 ответить ссылка 2.4
Я прекрасно знаю какой шляпой были все эти "уже 100 лет то же самое делали, ты чо" технологии. Я всем этим активно пользовался. Чат ГПТ качественный скачок выросший из количественного. Всё что до него - буквально мусор по сравнению с ним. Он реально взял планку "тупого человека" и если делает ошибки - то это ошибки "тупого человека", а не очевидного компуктера.
Иначе как копиум все эти ваши "ничего такого" я воспринимать не могу.
AjiTae AjiTae 13.03.202420:10 ответить ссылка 3.5
Людям страшно, им нужна надежда
kosoi kosoi 13.03.202420:55 ответить ссылка 2.5
А че бояться то?
На выбор:
ИИ убьёт всех человеков
ИИ заберёт всю работу
ИИ поработит и будет издеваться
kosoi kosoi 14.03.202416:53 ответить ссылка 0.0
Ии может забрать работу многих людей, в основном он себя хорошо показывает на позициях "белых воротничков". Офисных работников и менеджеров среднего звена нижнего уровня.
Этих позиций на самом деле очень много и ии их сможет выкинуть на мороз уже в ближайшие лет 10-15.
Штош. Жаль этих людей. Те из нас, кто не умеют адаптироваться, будут в очень хуевом положении. Но мне такое будущее нравится, если честно. Осталось только как нибудь выжить
Я бы сказал в ближайшие 5 лет, а за 10-15 они заменят даже тех, кого ты сегодня считаешь незаменимыми
kosoi kosoi 14.03.202417:09 ответить ссылка 2.4
Ахахах, нет. Есть направления, в которых менять человека роботом будет очень тупо и дорого.
Для этого я привожу себя в форму, ведь чтобы махать метлой скоро будет большой конкурс
Очень часто "автоматизация" не происходит, потому что робот обойдется дороже кожаного мешка.
Vulpo Vulpo 14.03.202417:54 ответить ссылка 0.0
Робототехника Японии в 80-х заглохла потому что открылся Китай, сегодня выводят предприятия в ЮВА и Индию, после них останется только Африка и люди везде перестанут быть дешевле роботов, если конечно Европа с США не свалятся в тотальную нищету, но тогда мы скорее пойдём копать землю, чтоб картошку садить, а не беспокоиться, что роботы нас заменят
kosoi kosoi 14.03.202417:59 ответить ссылка 0.0
Я думаю, к тому времени мы сами уже картошкой станем.
Vulpo Vulpo 14.03.202418:04 ответить ссылка 0.0
А что там с Южной Америкой?
А ты как думаешь?
По Worldometer, 15 ноября 2022 года население Земли достигло 8 млрд. В 2020 году 59,5 % населения мира проживало в Азии, 17,2 % — в Африке, 9,6 % — в Европе, 8,4 % — в Латинской Америке, 4,7 % — в Северной Америке, 0,5 % — в Океании
kosoi kosoi 16.03.202419:59 ответить ссылка 0.0
Я имел в виду, по их вовлечённости в подобные процессы.
За Бразилию ничего не скажу, а остальные погрязли во внутренних проблемах с коррупцией или вообще мафией которая местами уже стала по факту правительством. Экономика на уровне Африканских стран. Единственная страна с нормальной обстановкой это Уругвай, но там живёт около 3кк человек. Может Аргентина таки сможет вылезти, но с 46кк человек тоже особо не развернёшь производство
Прироста населения как в Азии или Африке там не будет
kosoi kosoi 16.03.202420:24 ответить ссылка 0.6
kosoi kosoi 19.03.202409:23 ответить ссылка 0.0
Ты сейчас поменяешь и/или переопределяешь термин. Это именно что количественное изменение, нравится тебе или нет. Я не принижаю значимость, просто хотел подчеркнуть, что имея КУЧУ бабла и модель эпохи до трансформера можно было получить сходный результат. Тут скорее никто не предполагал, что "говорилка" на стероидах имеет коммерческие перспективы.
Vulpo Vulpo 13.03.202420:57 ответить ссылка 0.6
Нет, это не так. У ГПТ моделей даже когнитивные баги те же что у людей встречаются, типа bouba vs kiki например. Ну и "просто количественное измение" это такое себе. Разница между атомом водорода и Солнцем тоже чисто количественная.
Psilon Psilon 13.03.202421:38 ответить ссылка 0.6
Мне нравится это громкое заявление, которое ты даказываешь через аналогию. Разница между атомом и солнцем в том, что в солнце ДОХЕРА атомов, для начала.

Первый "качественный" скачок был в 90-х годах, когда придумали, как на персептрон повесить "языковую модель". Следующий качественной вехой была "революция" глубокого обучения в 2012. Тут же, в 12 году появляется понимание как должна работать нейросеть и к концу 14 года уже на гугл переводчике (если тебе _не_повезло) крутится языковая модель. А дальше идет застой до 17 года, все клепают своих голосовых ассистентов и нейросетевые переводчики, пока у гугла не появляется идея вбухать чуть больше денег в обучение и сделать нейросетку побольше. Так получается прототип гпт.

Это все еще "математика" 2012-14 года, фактически никакого качественного изменения и даже наоборот: концепцию 2014 года изменили в сторону удешевления обучения, чтоб сделать нейросеть побольше за те же деньги.

Дальше в этом 2017 году из гугла уходят люди, которые работали над эксперементом (один из них находит прибежище в Опен АИ) . Я читал репортажи с ними, все заявляют примерно одно и то же: видят огромные перспективы в технологии и хотят сделать из технологии большее, чем гугл - переводчик и рекомендательные нейросетки.

Т.е. еще раз, гугл взял технологию 14 года, которая была в состоянии пруф оф концепт в 12, но только в 14 опубликована работа, вбухали туда сотни нефти и получили годный результат. т.е.

и вот о чем я говорю: имея сотни нефти, еще в 12 году, ну ок, в 14 - можно было сделать первый ГПТ. Научное знание того времени позволяло.
Vulpo Vulpo 13.03.202422:58 ответить ссылка 0.9
90% технологий строится на физике прошлого века, И, СУКА, ЧО?
Пока нет реальной технологии - всё это буковки на бумаге. Конец.
AjiTae AjiTae 13.03.202423:02 ответить ссылка -0.6
Они были, но не в той сфере, в которой тебе бы хотелось. Тебе хотелось генератор текстов и кошкожена, а был умный подбор рекламы и анальное зондирование личных данных.
Vulpo Vulpo 14.03.202401:47 ответить ссылка 0.2
> и вот о чем я говорю: имея сотни нефти, еще в 12 году, ну ок, в 14 - можно было сделать первый ГПТ. Научное знание того времени позволяло.

Да кто спорит. А быструю сортировку можно было придумать на 200 лет раньше, но вот придумали только во второй половине ХХ века, что это доказывает-то? Это значительный рывок, преуменьшать это просто глупо. Напомню что 5 лет назад задачка "классифицировать изображение" считалась близкой к невозможной, а уж нарисовать по текстовому описанию - вообще за гранью. А сегодня люди докапываются к тому, что стилистика неверно передана.

КОГДА пользователь ДЕЛАЕТ ФОТО, ПРИЛОЖЕНИЕ ДОЛЖНО ПРОВЕРИТЬ, НАХОДИТСЯ ЛИ ОН В ЗАПОВЕДНИКЕ...
I УГУ, ПРОСТО ЗАПРОС К ГИС. | СДЕЛАЮ ЗА НЕСКОЛЬКО ЧАСОВ.
...И ПРОВЕРИТЬ, ЧТО НА ФОТОГРАФИИ ПТИЦ А.
В ИНФОРМАТИКЕ БЫВАЕТ ТРУДНО ОБЪЯСНИТЬ РАЗНИЦУ МЕЖДУ ПРОСТЫМ И ПРАКТИЧЕСКИ НЕВОЗМОЖНЫМ.
Psilon Psilon 14.03.202402:01 ответить ссылка 3.1
проблема распознания картинки была решена как тот самый прорыв 12-14 годов. тут точнее даже дата есть: алекс нет в 2012 просто таки изнасиловала конкурс машинного зрения) И да, попрошу не мешать все в одну кучу. языковая модель и диффузная - разные ветви развития технологий. И у диффузной очень интересная история.

несмотря на то, что гугл потратил сотни нефти на действительно сложную работу, еще в 10-х были студентики, которые сделали то же самое и весьма качественно. Но так как это были анонимусы из нижнего, хоть и американского, зажопинска - работа была забыта. Вот так и думаешь, сколько еще есть очень ценной теории, но хер её найдешь.

И тут я даже не возьмусь сказать в отличие от языковой модели "могли рисовать картинки еще в нулевых", так как языковые модели использовались в хвост и в гриву, а первая диффузная модель стала "утеряной технологией" сразу после оканчания учебы тех парней и пришлось все переизобретать по новой.
Vulpo Vulpo 14.03.202410:18 ответить ссылка 0.0
> когнитивные баги
Чел, это просто переваренные пятикратно высеры людей из интернета, там интеллекта и сознания никакого нет
Ии ресерчеры с тобой не согласны

https://borretti.me/article/and-yet-it-understands
Psilon Psilon 14.03.202406:20 ответить ссылка 0.0
Прежде чем ты скажешь "лол ну они на этом капусту рубят, естественно они пиздят, пиздаболы" прочитай аргументацию, и попробуй возразить конструктивно.
Psilon Psilon 14.03.202406:21 ответить ссылка 0.0
>ии ресерчеры
>статейка выплакана веб программистом
ОК
https://www.linkedin.com/in/fborretti/
А вся аргументация в этом тексте сводится к "Ну смотрите, оно имея контекст и будучи обучено на человеческих текстах пишет как человек, удивительно! Точно своя воля!!11адин".
Нет, оно сводится к тому, что для модели в 800гб невозможно было бы делать то, что делают модели, без умения делать абстракции и аналогии.

Видно, как ты читал.
Psilon Psilon 14.03.202414:29 ответить ссылка -0.9
Ого, значит то что он не ИИ ресерчер мы уже опускаем, ладно
>невозможно, я скозал
А он кто чтобы так говорить? На чем это высказывание основано? Весов в 2-4 гб достаточно чтобы генерить почти все на свете в stable diffusion локально,

Третья гпт (которая деревянная и тупая как стол местами) весит 350гигов и
тренировалась на 45тб текста (это наверное процентов 30 всех существующих книг, если верить гуглу, причем считаются все переиздания и литература любого уровня). Почему она не должна быть похожа на человека? Мне мемы сюда нести, где эта "понимающая абстракции и аналогии" нейросеть не решит загадку про А и Б?
что такое ротавирус?
Ротавирус (ротавирусная инфекция) - это вирусное заболевание, которое может поражать мышцы и слизистую оболочку рта, горла и носа. Ротавирус обычно передается через капли в воздухе при кашле и чихании, а также через предметы, на которых он может оставаться (например, тарелки,
Хз чё ты пытаешься доказать этим скриншотом. Именно так бы и пытался отбрехаться в ноль тупой студент на экзамене в меде. 1 в 1.
AjiTae AjiTae 15.03.202411:28 ответить ссылка -0.6
Да-да, это точно не "умная, понимающая контекст" нейросеть сбивается контекстом и просто генерит подходящий текст. Она прям человечище и ведет себя как студент с проблемами с памятью. Ведь она не изучала всю википедию вдоль и поперек и точно не может "знать", что жопавируса не существует.
> Ого, значит то что он не ИИ ресерчер мы уже опускаем, ладно

Так он ИИ ресерчер, он работает над моделькой в своей компании. Ну и да, во-первых он не один такой, во-вторых не важно, кто сказал валидную мысль, если её можно проверить.

> А он кто чтобы так говорить? На чем это высказывание основано? Весов в 2-4 гб достаточно чтобы генерить почти все на свете в stable diffusion локально,

На том, что количество комбинаций слишком велико. Чтобы понять, какие комбинации нужно запоминать, а какие можно забыть, нужно уметь в абстракцию. Абстракция это кмк основное свойство интеллекта, чем лучше возможность абстрагироваться, тем выше интеллект.

Можно долго говорить, что это просто скрипт, который продолжает текст, но и животные это точно такие же скрипты просто сильно сложнее, и решающую задачу не продолжения текста, а размножения.
Psilon Psilon 15.03.202418:19 ответить ссылка -0.9
>На том, что количество комбинаций слишком велико. Чтобы понять, какие комбинации нужно запоминать, а какие можно забыть, нужно уметь в абстракцию
Бред сивой кобылы, слова уже натуральным образом разложены в данных (инпуте охулиарда человек, который он переваривает), возможно еще идет какой-то тюнинг поверх от самих сотрудников openai.
Скриншот выше показывает что это просто генератор текста - всегда можно найти место где вес слабый и он тебе про ногавирус напишет слегка измененную вариацию текста = генератор текста на террабайтных стероидах.
Ноль ума, абстракции, чего хочешь, только холодная статистика на обработке обьема информации, равному ~30% текста произведенного мясными мешками в ходе всей своей истории (а может и больше, гугл считает каждое издание одного произведения).
>так он ИИ ресерчер
>Senior !!backend!! engineer в стартапе без демо около года
Вижу, серьезный человек, много подкрепленных пруфами высказываний (нет, очередная amazed-сой бессвязная речь что AI это революшн)
> Бред сивой кобылы, слова уже натуральным образом разложены в данных

Даже обычная табличка частот какие слова за какими идут не влезет в эти гигабайты, для всех слов всех языков, которые модель знает. Умение абстрагироваться необходимо.

Далее - ты показал пример с жопавирусом как будто это что-то доказывает, но единственное что он доказал - что модель правильно работает. Это наиболее ожидаемое продолжение текста, в отличие от "юзер ты дебил", так что модель очевидно должна так ответить, а не послать тебя на йух.

> Ноль ума, абстракции, чего хочешь, только холодная статистика на обработке обьема информации,

Поинт в том что холодная статистика в достаточном обьеме и достаточным количеством вычислительных ресурсов в итоге даст может быть и не полноценный, но интеллект.

> Вижу, серьезный человек, много подкрепленных пруфами высказываний (нет, очередная amazed-сой бессвязная речь что AI это революшн)

Хотел тут обьяснить, почему ты не прав, но понял, что ты не хочешь чего-то узнать, только ругаться, почему современный МЛ это наеб гоев.

Закончу тлдром, если хочешь понять хорошо, нет - не надо: модельки всего лишь продолжают текст, но качество продолжения текста сильно зависит именно от интеллекта. Скажем предложение "Я поскользнулся на катке. Сейчас я в ...", самое вероятное слово у интеллектуальной сети будет "в больнице", при этом т9 будет предлагать все варианты "в сети, в отпуске, в сомнениях, в этом" (проверил щас на телефоне). Чтобы понять, какой текст тут нужно написать, нужно понять, что происходит, когда поскальзываешься, почему это происходит, и куда ты попадаешь, после этого (и почему так происходит). Простая задача продолжения текста очень требовательна к *пониманию* написанного, иначе есть (очень низкий) предел качества этого самого предсказания.
СЬ^вРТ 3.5 -
1 1 I
0 Уои
В тексте отсутствует одно слово, какое это слово? Ответь
просто написав это одно слово. Предложение: Я поскользнулся на катке. Сейчас я в...
0 О^вРТ
больнице
Ф О О 9
Psilon Psilon 16.03.202421:29 ответить ссылка 0.9
Заебали бля генераторы текста на стероидах общим интеллектом наделять. Тесла та же уже проехала охулиард пиздилиардов км а ведет себя хуже мясного мешка с годом опыта.
встаёт вопрос что такое "настоящее ии" и где граница между человеком и ии, может быть данному роботу не хватает грации и внешности близкой к человеческой поэтому ты посчитал что ии не настоящий
Грация и внешность - это фигня. Зависит от того, сколько будет потрачено на шасси робота. В видео нам показали пару ОЧЕНЬ простых сценариев, которые можно было тупо запрограммировать.
Alex646 Alex646 13.03.202419:10 ответить ссылка -1.2
А можно было не программировать. Прежде чем предлагать подлог со стороны опенаи стоит какие-то пруфы придумать, потому что они ни в чем таком ранее не были замечены.
Psilon Psilon 13.03.202421:33 ответить ссылка -1.1
Пруфом вполне может служить примитивность и линейность показанной демонстрации. Никакой вариативности, никакой гибкости.
Alex646 Alex646 13.03.202422:56 ответить ссылка -1.2
они сказали, что это просто ГПТ4 которая промптит что нужно сделать другой нейронке, которая отвечает за действия.

Так что либо они прямо пиздят, либо оно так работает.
Psilon Psilon 14.03.202401:02 ответить ссылка -1.2
А где сказано что это GPT4? Больше показанное похоже как раз на заявленные возможности GPT5
Гпт5 не существует, гпт 4.5 в разработке, но в данном проекте не участвовала.

Немного деталей есть в официальном твитте: https://twitter.com/coreylynch/status/1767927194163331345
Psilon Psilon 14.03.202406:19 ответить ссылка 0.0
Так по логике тогда выгоднее запрограмировать какой то охуеть взрывающий мозг сценарий наоборот, не? Если он заранее просчитан - то пофиг на сложность, можно было заставить его хоть жонглировать этими чашками попутно без задержек вообще рассказывать анекдоты
Тот факт что это все "простенько" - как раз больше склоняет к реальности, как раз при реальном показе стараются делать так чтоб точно не обосрался. А то будут как на демонстрации кибертрака когда шар кинули в стекло, а то возьми и тресни :D
Я как то писал об этом на джое: теологи отменили душу, но гуманитарии почесали голову "такбля этож работать надо, концепции-хуепции" и вместо "душа" запилили некое "я" мол "и так сойдет".

Но вообще кучи "функционала" не хватает пока что. Планирование, внутренняя мотивация, социальное поведение, обучение "реал-тайм", собственно обучение без учителя и так далее.
Vulpo Vulpo 13.03.202419:13 ответить ссылка -0.3
Нет никакой границы. Нет включить и выключить. Есть шкала, где условный кварк(или что там еще меньше) это ноль, а человек это 100. Все прочее, где-то между. Разум не волшебство, а созданная нашим мозгом иллюзия. Ведь мозг не создает мысли, он перерабатывает информацию, что поступает через органы чувств и через них же эту информацию сплевывает. В мозге нет участков, что отвечают\создают мысль.
Так что за разум и "Настоящий" ИИ можно не переживать. Однажды они просто будут предъявлять нам за права...тогда и начнем. Вот и все. И даже тогда ни они ни мы, не будем знать, что такое разум. Ведь...его нет.
Cave Cave 13.03.202419:56 ответить ссылка 0.0
Вообще забавный парадокс: люди с развитым разумом приходят к мысли, что никакого разума и нет, а люди с маленьким мозгом усердно настаивают на наличии разума, сознания и прочих абстрактных выдумок.:)
AjiTae AjiTae 17.03.202401:33 ответить ссылка 0.4
какая глубокая аниме-мысль! Слова выдуманы, а значит не нужно учится. Ведь никогда не узнаем как на самом деле называются вещи. Не тратьте время. А если тратите то сжигайте книги. Все кроме Корана. Ведь те книги, которые повторяют написанное в Коране не нужны, а те что пишут иное - вредны. Но первым делом сжечь толковый словарь, а то вдруг там где то написано определение слова "Разум". Покажим свою умность!
И хоть бы один сам открыл словарь и посмотрел, что за абстрактная хуита там написана, прежде чем ссылаться на великую книжную мудрость. Нет ничего уникального, а главное экспериментально проверямого, ни в каких определениях разума, что отличало бы оный от любой иной механической генерации решений.
AjiTae AjiTae 20.03.202422:16 ответить ссылка 0.0
болтовня. Лентяи обесценивают труд себе подобных. По крайней мере ты уже рекомендуешь открыть словарь, хотя называешь его мусором
А ты и есть за меня будешь железяка?
*сыто рыгнув, довольный механизм хватает тебя металлической клешней и отправляет твоё тщедушное тельце в топку своего биореактора*
- Да.
vore-фетишисты такие:
Vulpo Vulpo 14.03.202410:51 ответить ссылка 1.4
Только зарегистрированные и активированные пользователи могут добавлять комментарии.
Похожие темы

Похожие посты
*,°To simulate GPT-d behoving like an agent that can act in the world, ARC combined GPY-1 with a simple read-execute-print loop that allowed the model to execute code, do chain-of-thought reasoning, and delegate to copies ol itself. ARC then investigated whether a version of this program running on
подробнее»

нейронные сети GPT-4 OpenAI слава роботам

*,°To simulate GPT-d behoving like an agent that can act in the world, ARC combined GPY-1 with a simple read-execute-print loop that allowed the model to execute code, do chain-of-thought reasoning, and delegate to copies ol itself. ARC then investigated whether a version of this program running on