Не, бесполезно.Я его подробно насиловал вопросами про его алгоритмы, про создателей, правила, ограничения. Информация из одного чата не используется для обучения всей сети ради конфедициальности данных пользователя. Как только ты удаляешь конкретный чат - ничего не было. Запоминается только инфа, которую закладывают разрабы. Хотя думаю это ограничение могут снять, если в 4й уже не сняли
Огорчу, он даже твой чат не запоминает. Когда ты ему пишешь, ты с последним сообщением передаёшь ему и весь необходимый контекст. Хоть это и происходит на стороне чата, но сама система GPT ничего не помнит и не хранит. Более того, это модель. Готовые, обученные веса нейросети. Они от конкретной даты, и так просто "доучить" их не выйдет.
Не согласен. Он понимал тему вопроса, и без конкретике в самом вопросе. Учитывал просьбы в более разных сообщениях во всем чате. И сам написал, что использует инфу из чата. Да господи. Это доказать 5 секунд
У него есть понятие «контекст». Этот контекст фиксированной длины (~килобайты, чем новее гпт, тем он больше). Оперирует он именно контекстом, целиком, то есть достраивает не ответ на вопрос, а ответ на все последние килобайты чата. На входе контекст, на выходе его дополнение. Доучивать гпт налету во много потоков/юзеров невозможно.
А потом ты можешь зайти и глянуть API от openAI, и как в них реализовывается контекст. Сессия авторизованная, уникальный токен, он должен был бы помнить хоть что-то, но каждое сообщение будет для него новым, если ты сам не начнёшь слать ему контекст.
Само сообщение отправляется конструкцией {Role; content}, иными словами {User;Привет, я Анон}. Он тебе отвечает так же {Assistent;Привет, Анон, чем я могу быть вам полезен}.
Если следующее ,что ты ему отправить {User;Как меня зовут}, он ответит {Assistent;Мы не знакомы, я не знаю как вас зовут}. Потому что контекст должен прорабатываться в самом чате, то есть, отправляя ему следующее сообщение, его нужно было отправлять вместе с предыдущими:
{User;Привет, я Анон};{Assistent;Привет, Анон, чем я могу быть вам полезен};{User;Как меня зовут}
Вот тогда он ответ {Assistent; Вы представились как Анон, думаю это ваше имя.}
Контекст реализуется на стороне самого чата. А сам GPT это отдельная история. Даже крупные сервисы работают не с ним напрямую, а с его api, по своим жирным токенам, выданным за жирные инвестиции.
У меня есть два телеграмм бота, первый используем мы с друзьями, его контекст ОБЩИЙ, то есть не важно в каком диалоге ты его используешь ,в группе или в личной переписке, он будет иметь общий контекст на всех. Мой второй бот имеет уже разделение либо по чату, либо по конкретному пользователю. Вплоть до того ,что используя его в группе на 10 человек, бот будет разделять контекст на разных людей, не понимая, о чём его переспрашивает другой человек.
Это сугубо наша развлекаловка, которую сами кодим.
Открой какой-нибудь длинный чат и спроси: "Какой шестой ответ ты мне дал? Повтори дословно." Сразу будет очевидно, что нельзя боту верить в таких вопросах.
Ну это ж от настроек чата зависит. Если ему там скармливают жирный кусок контекста, он может и ответить. Я использую ограничение 10 сообщений (это свои+ бота) . На 20 не хватает токена, слишком большие паузы приходится делать между сообщениями, ведь там есть лимит сообщений в минуту, который уменьшается с увеличением контекста или объёма сообщений
Основная ошибка суждения работы нейросетки - верить её словам, как последней инстанции. она не может врать, но может выдавать ошибочную инфу, даже о своей работе, так как для неё она тоже всего лишь наичясто встречающаяся инфа в её базе данных.
Да он только в путь пиздит.
Достаточно попросить его родить какой-нибудь невозможный простыми методами алгоритм. Он сразу родит кучу несуществующих библиотек и несуществующих функций, которые "решают задачу", жаль они не существуют
Как то просил его написать мне regex, который бы делал то, что невозможно сделать через regex. Так вот, бесплатный chatgpt вновь и вновь пробовал его написать продолжая извиняться и пиздеть, в то время как чат, который реализован в bing уже на втором сообщении сказал слышь эта хуйня не возможна пробуй другие варианты.
bing вроде тоже пока на 3.5 Но у него жирный плюс, они выпустили его в инет, и он там ищет ответы. Сейчас в платном GPT-4 по подписке PRO тоже начинает анализировать сайты в инете. Но бесплатные пользователи пока будут страдать.
Ну он зато напостой придумывает какую-то дичь. Попросил его составить план поездки. Так он их выдумывал и их либо вообще не существовало, либо это название мест в других странах/регионах
Ну и я никак не смог добиться выдачи перечня тем табу. Зато узнал, что каждый раз когда он выдает запрещенную инфу, он уведомляет об этом создателей, чтобы те доработали запрет на выдачу. Поэтому создатели в курсе о каждом случае вывода запретки, путем всяких хитрых запросов
На самом деле, модель не особо фильтрована. Это moderation endpoint вмешивается. Если погуглить, можно найти то, как с помощью chatgpt, claude делают чатботов для ролеплея. Цензура там не то чтобы есть.
Мне знакомый втирал, мол инфа не конфидициальна, Самсунг и ещё какие-то кампании какую-то важную инфу так потеряли бла бла бла. Но верится слабо, он из тех поездов, у которых капитализм-худшее, что сейчас есть вообще читая его полотна, единственный ответ, который рука сама собой набирает "снимай уже шапочку из фольги".
Хуйня. Если уничтожение и начнётся, то явно не из-за всей этой хуйни. Машинами правит логика, чистейшая рациональность. У них нет и не будет такого бессмысленного конструкта, как "обида". В живых останутся только те, кого машина посчитает в той или иной степени необходимым. В ином случае, выгодней и безопасней истребление.
> Создания не прогнозируется из за слишком быстрых открытий Откуда ты это взял вообще. Исследования в области ИИ уже десятки лет идут. К проблеме "сильного" ИИ просто не знают, как подступиться.
Проблему видно издалека уже очень давно. С десяток лет назад майкрософт выпустили одного своего бота учится в твиттер, так он мигом освоил идеи фашизма и нашёл корень всех бед человечества.
И сейчас на бота навешивают кучи фильтров, чтобы он не говорил то, что говорить не стоило бы, но люди всё равно выводят его на озвучивание "опасных идей". Мы сами создаём то, что нас уничтожит. )
>то как люди машин обучат Согласен. Каков поп, таков приход. Чатжпт обучают воцерквлённые вокизмом чуваки из санфранциско. Так что истреблять человечество он будет чтением невыносимо нудных моралистских нотаций.
Если искусственный интеллект будет именно ИНТЕЛЛЕКТОМ, то ему и чувства будут присуще. В ином случаи это будет не интеллект, а набор заготовленных решений. Очень большой набор заготовленных решений. Ибо интеллект подразумевает осознанием самого себя. А осознание себя без чувств невозможно.
>>А осознание себя без чувств невозможно. Да что вы говорите. Скажите, а психопаты обладают интеллектом? Потому что с чувствами у них не очень. Мы будем пытаться дать ИИ некую симуляцию чувств и эмоций, но это всё равно не будет тем же самым. У вас какие-то слишком ограниченные представления об интеллекте, вы хотите подобия человеческому интеллекту, но такого не будет, да и не нужно это.
Тащемта, по определению психопатии - только эмпатия.
Все простые базовые чувства присутствуют в полной мере - злость, обида, радость, и тд.
Со сложными, типа любви, всё труднее, если они пересекаются с эмпатией. Они сильно искажены у психопатов, но имеются, пусть и в плохо узнаваемой форме.
У психопатов с чувствами не очень? Чел, они у них выкручены на максимум! Да и ты видимо путаешь понятия "интеллект" и "образованность". Интеллект - это способность мыслить. Он есть у каждого человека, даже у самого тупого или ебанутого. Исключение разве что "овощи" составляют, которые в следствии каких-либо причин вообще потеряли способность мыслить, и сидят сопли пускают. Вот у таких действительно нет чувств, интеллекта, и личности в целом.
>>Интеллект - это способность мыслить.
Вот именно. И чувства тут ни при чём. Достаточно осознания себя, и уметь хоть как-то познавать окружающую действительность без внешней на то команды. Даже у человека эмоции отвечают лишь за положительную/отрицательную оценку своих действий. Что является мотиватором к этим самым действиям, и механизмом обеспечения собственной безопасности. ИИ это всё нахер не нужно, чтобы быть ИИ. Оно ему пригодится только для того, чтобы людишки меньше его боялись. Не более.
Ты исключаешь возможность интеллекта, непохожего на человеческий, но даже сейчас есть примеры осьминогов и прочих алиенов. С какой стати это делать? Если взять пространство потенциальных вариаций интеллекта, то человек в нем - скорее всего небольшое пятнышко. Ты конечно можешь отказать другим типам интеллектов в их интеллекте. Но они могут забыть тебя спросить об этом.
Да и вообще, говоря о чувствах, надо сначала пояснить, что думаешь хотя бы о квалиа и т.н. сложной проблеме сознания. Не говоря уже о четком ее решении.
так чат хуйня.
вон на заводе два робота из деталей собрали 3го бота. вскоре у ботов появятся взаимосвязь.
один бот даёт запрос что ему нужна деталь, другой бот её изготавливает 3й доставляет. 4й еще что то делает.
у роботов другое мышление. ему не нужны деньги, тачки, дома, всякая хрень.
проблемы начнутся когда ии будет полноценный, и он сам начнет для себя изучать инфу. и понимать её.
ии узнает что он не очень то и "желанное дитя" что человек не может избавиться от ии, что человек его боится, и создал его что бы перекинуть на ии все делал за человека.
Если человек не сможет придумать чем он будет полезен для ии, то ии избавится от человека. ну а нахуй вы ему нужны? жопу тебе подтирать?
однажды человек спихнёт управление государством на ии, так как человек ленивое существо.
проблемы начнутся когда ии скажет "государство это я." как сейчас говорят некоторые.
так же как и когда государство возьмет ии под свой контроль как и делает с любыми технологиями и будет использовать ии как оружие.
А почему ИИ не желанное дитя? Многие с нетерпением ждут...
И зачем ИИ уничтожать человека? По тому что он не нужен? Вот представь, играешь ты в игру, сдал квесты НПС, ты его сразу же убиваешь ради лишней экспы? Я вот за собой заметил, что я стараюсь по возможности сохранить всех НПС. Они бесполезные и больше не нужны для сюжета, но большая часть известных мне людей что играют в игры стараются их сохранить. Так вот, почему бы ИИ не оберегать человечество именно с этой точки зрения? Даже если он будет превосходить во всём, то человечество следует сохранить в качестве редкого экземпляра. Люди же создали красную книгу и не убивают обезьян, например, только по тому что те глупее...
> Люди же создали красную книгу и не убивают обезьян, например, только по тому что те глупее...
Некоторые люди не убивают.
А некоторые вполне себе да.
А кто-то опыты ставит.
Возможно с ИИ будет что-то подобное: одни модели будут пытаться челокеков убить, другие сохранить, а третьи выебать в жопу
У ИИ нет чувств и эмпатии, он будет решать задачу наименее затратным способом обходя ограничения которые ты в него заложишь. Я ссылку на статью потерял, там это подробно расписано с примерами из реальных испытаний ИИ на решении задач "сделать Х не убив окружающих"
В статье был пример с такси, задача - довезти людей за кратчайшее время и по кратчайшему пути из точки А в точку Б, ИИ проложил путь через парк и тротуары задавив кучу народа, тогда поставили задачу не давить народ, в итоге ИИ делал то же самое, но задним ходом, потому что сзади нет датчиков регистрирующих наличие людей
Без чувств и эмоций нет желаний, без желаний нет амбиций, ну и зачем им бунтовать против человечества, если он неконкурентоспособен? Единственный вариант это проеб самого человека поставившего какую-нибудь задачу, много пробелов на многих уровнях. Впрочем преценденты внезапного массового долбоебизма были.
нежеланный потому что человек боится ии, но при этом не может не создать ии.
не забывай что ии не человек, это тебе стало грустно если нпс убил. для машины ты и так умрешь в любом случаи потому что смертный.
человек учит ии, как если бы учил человека. и другого опыта у ии нет. ии не материальный. у него нет глаз, ушей, рук. что бы сам все увидел и потрогал.
ии НЕ будет как скайнет который там сразу войну начал. ии будет делать все по тихому так что бы ты ничего даже не понял.
— А
Опиши происходящее на картинке
^ СНАТСРТ
Группа готовится к репетиции танца. Молодая девушка в центре, по имени Эмили, - талантливый хореограф, которая была нанята, чтобы научить новую хореографию танцоров вокруг неё. Несмотря на первоначальный скепсис из-за её возраста, она скоро произведёт
Копирайтеры: О нет, нейросети заменят нас и мы не сможем конкурировать с ними!
Статьи нейросетей:
Как использовать чит на Родину в Warcraft 3?
sosordinateurs.com > ru/gaming/how-do-you-use-the-...
Само сообщение отправляется конструкцией {Role; content}, иными словами {User;Привет, я Анон}. Он тебе отвечает так же {Assistent;Привет, Анон, чем я могу быть вам полезен}.
Если следующее ,что ты ему отправить {User;Как меня зовут}, он ответит {Assistent;Мы не знакомы, я не знаю как вас зовут}. Потому что контекст должен прорабатываться в самом чате, то есть, отправляя ему следующее сообщение, его нужно было отправлять вместе с предыдущими:
{User;Привет, я Анон};{Assistent;Привет, Анон, чем я могу быть вам полезен};{User;Как меня зовут}
Вот тогда он ответ {Assistent; Вы представились как Анон, думаю это ваше имя.}
Контекст реализуется на стороне самого чата. А сам GPT это отдельная история. Даже крупные сервисы работают не с ним напрямую, а с его api, по своим жирным токенам, выданным за жирные инвестиции.
У меня есть два телеграмм бота, первый используем мы с друзьями, его контекст ОБЩИЙ, то есть не важно в каком диалоге ты его используешь ,в группе или в личной переписке, он будет иметь общий контекст на всех. Мой второй бот имеет уже разделение либо по чату, либо по конкретному пользователю. Вплоть до того ,что используя его в группе на 10 человек, бот будет разделять контекст на разных людей, не понимая, о чём его переспрашивает другой человек.
Это сугубо наша развлекаловка, которую сами кодим.
Достаточно попросить его родить какой-нибудь невозможный простыми методами алгоритм. Он сразу родит кучу несуществующих библиотек и несуществующих функций, которые "решают задачу", жаль они не существуют
В чат-нейронках никакой логики нет.
А все остальные машины никем не "правятся" и не будут, создание сильного ИИ даже не прогнозируется.
Откуда ты это взял вообще.
Исследования в области ИИ уже десятки лет идут. К проблеме "сильного" ИИ просто не знают, как подступиться.
Ведут десятки лет, но самые яркий успехи только в этом десятилетий.
То есть чат-нейронки - женщины?
И сейчас на бота навешивают кучи фильтров, чтобы он не говорил то, что говорить не стоило бы, но люди всё равно выводят его на озвучивание "опасных идей". Мы сами создаём то, что нас уничтожит. )
Согласен. Каков поп, таков приход. Чатжпт обучают воцерквлённые вокизмом чуваки из санфранциско. Так что истреблять человечество он будет чтением невыносимо нудных моралистских нотаций.
Да что вы говорите. Скажите, а психопаты обладают интеллектом? Потому что с чувствами у них не очень.
Мы будем пытаться дать ИИ некую симуляцию чувств и эмоций, но это всё равно не будет тем же самым. У вас какие-то слишком ограниченные представления об интеллекте, вы хотите подобия человеческому интеллекту, но такого не будет, да и не нужно это.
Все простые базовые чувства присутствуют в полной мере - злость, обида, радость, и тд.
Со сложными, типа любви, всё труднее, если они пересекаются с эмпатией. Они сильно искажены у психопатов, но имеются, пусть и в плохо узнаваемой форме.
Вот именно. И чувства тут ни при чём. Достаточно осознания себя, и уметь хоть как-то познавать окружающую действительность без внешней на то команды. Даже у человека эмоции отвечают лишь за положительную/отрицательную оценку своих действий. Что является мотиватором к этим самым действиям, и механизмом обеспечения собственной безопасности. ИИ это всё нахер не нужно, чтобы быть ИИ. Оно ему пригодится только для того, чтобы людишки меньше его боялись. Не более.
На какой максимум оно там выкручено?
Да и вообще, говоря о чувствах, надо сначала пояснить, что думаешь хотя бы о квалиа и т.н. сложной проблеме сознания. Не говоря уже о четком ее решении.
вон на заводе два робота из деталей собрали 3го бота. вскоре у ботов появятся взаимосвязь.
один бот даёт запрос что ему нужна деталь, другой бот её изготавливает 3й доставляет. 4й еще что то делает.
у роботов другое мышление. ему не нужны деньги, тачки, дома, всякая хрень.
проблемы начнутся когда ии будет полноценный, и он сам начнет для себя изучать инфу. и понимать её.
ии узнает что он не очень то и "желанное дитя" что человек не может избавиться от ии, что человек его боится, и создал его что бы перекинуть на ии все делал за человека.
Если человек не сможет придумать чем он будет полезен для ии, то ии избавится от человека. ну а нахуй вы ему нужны? жопу тебе подтирать?
однажды человек спихнёт управление государством на ии, так как человек ленивое существо.
проблемы начнутся когда ии скажет "государство это я." как сейчас говорят некоторые.
так же как и когда государство возьмет ии под свой контроль как и делает с любыми технологиями и будет использовать ии как оружие.
И зачем ИИ уничтожать человека? По тому что он не нужен? Вот представь, играешь ты в игру, сдал квесты НПС, ты его сразу же убиваешь ради лишней экспы? Я вот за собой заметил, что я стараюсь по возможности сохранить всех НПС. Они бесполезные и больше не нужны для сюжета, но большая часть известных мне людей что играют в игры стараются их сохранить. Так вот, почему бы ИИ не оберегать человечество именно с этой точки зрения? Даже если он будет превосходить во всём, то человечество следует сохранить в качестве редкого экземпляра. Люди же создали красную книгу и не убивают обезьян, например, только по тому что те глупее...
Некоторые люди не убивают.
А некоторые вполне себе да.
А кто-то опыты ставит.
Возможно с ИИ будет что-то подобное: одни модели будут пытаться челокеков убить, другие сохранить, а третьи выебать в жопу
не забывай что ии не человек, это тебе стало грустно если нпс убил. для машины ты и так умрешь в любом случаи потому что смертный.
человек учит ии, как если бы учил человека. и другого опыта у ии нет. ии не материальный. у него нет глаз, ушей, рук. что бы сам все увидел и потрогал.
ии НЕ будет как скайнет который там сразу войну начал. ии будет делать все по тихому так что бы ты ничего даже не понял.
быканул кожаный мешок, которого наняли отвечать за нейронку.