Попробовал, вроде не отвратительно, правда я в ДнД никогда не играл, так что не мне судить.
Но по ощущениям прям неплохо, скорее всего большая модель на 60-70b
DnD Bot 0 684.5 k
created by @MixxC
Remember: Everything Characters say is made up!
DnD Bot @MlxxC
Enter your RACE, CLASS, six STATS (STR, DEX, CON, INT, WIS, CHA), max HP, AC, and GOLD. I will then describe a random scenario to you. When responding with actions, start your message with "]"•
Можешь попробовать на character.ai в поиске DND напиши, хз какие у них там модели под капотом, но по факту это лучшее на что ты можешь надеяться локально, при условии что подберешь правильный промт и немного заморочишься с внешней памятью что бы расширить контекст.
Можешь даже попробовать на русском, он чето вроде понимает, но сам я не пользовался этим сайтом, просто много где его рекомендовали.
В локальных есть единственный плюс, что существуют расцензуренные модели, это если ты захочешь пошалить с медведем, но еще раз повторю на чудо не надейся.

https://beta.character.ai/?
Есть модели до обученные на ролевой отыгрыш, но все они только на английском (даже если модель изначально умела в русский, но до обучают как правило на английском и она теряет все способности к другим языкам).
Так что, если пробовать, то с большой моделью вроде llama на 30b и выше (без доп. обучения)
Но главная проблема, модели (особенно небольшие 13b и меньше) запускаемые локально часто несут бред. А так же теряют нить беседы после 3-4 реплик и т.д., но тут скорее играет роль что у большинства этих моделей контекст всего 2к токенов.
Ну и как итог никуда ты 150 стр. не загрузишь, в промт они не влезут а до обучать на них относительно дорого, и с вероятностью 95% результат будет плохим.
Зависит конечно от задачи, для простого чатика поболтать по 1 предложению может и ок, но когда пытаешь что то сложнее, вроде упрощенной ролевой игры по типу днд у меня ничего толкового с маленькими моделями не получалось, структуру ответов совсем не держит, то нормально по ролям, то переходит "на прозу" и выдает абзац текста вместо ролевых реплик, то за тебя начнет отвечать.
У chatGPT с этим все норм, хотя возможно, что часть этого сделано на обвязке вокруг модели, вроде когда пора остановить генерацию и поддержание формы ответов.
Так же у локальных моделей проблемы с программирование, если простую функцию еще кое как напишут, то попытки в рефакторинг проваливаются практически всегда.
То же и про выводы из текста, обычно сильно хуже чем chatGPT, настолько хуже что использование не имеет смысла.
Начиная с 30b а лучше 60, уже что то приемлемое, но возникают проблемы со временем генерации, на моем старичке выдает всего 2-3 токена в секунду.
И да, качество моделей меньше 30b полная фигня
Есть еще одна веб морда Koboldcpp, запускается экзешником, жрет любые модели с huggingface формата ggml
https://github.com/LostRuins/koboldcpp/releases/tag/v1.37.1a
Так а че не так?
The ■RpCK age 15
«
1
Разговор во вселенной где нормой считаться 12-ричная система счисления:
Прикинь какие то дураки топят за A систему счисления так в ней 10 это 12, 100 это 144 а 1000 это 1728, как вообще так можно считать, это же бред.
Скорее всего река и впадаёт в это озеро/море/океан ниже по течению они просто перенаправили русло, возможно всего на пару десятков/сотен метров, насколько это уебански и как сильно они повлияли на экологию, хз, но судя по количеству похожих видео это происходит регулярно.