забавно .что когда-то типичный рисунок нейросети выглядел примерно так, а не эти ваши идеальные работы ,которые отличишь от настоящих хуйдожников только по неправильному количеству пальцев
https://ru.wikipedia.org/wiki/GPT-3
"Обучение модели происходило на суперкомпьютере Microsoft Azure AI, который был построен специально для OpenAI.[7][3] Компания Lambda Labs подсчитала, что на такое обучение могло уйти от 4,6 млн долларов.[8]"
Если в технологию вложить много денег и человеко-часов то получется хороший результат. Для получения хороших екземпляров этих нейрохужожеств датасет LAION-5B для обучения занимает где-то 240 терабайт исходников, не говоря уже о остальном железе. Весьма дорогое удовольствие, с большой ценой входного билета.
"Обучение модели происходило на суперкомпьютере Microsoft Azure AI, который был построен специально для OpenAI.[7][3] Компания Lambda Labs подсчитала, что на такое обучение могло уйти от 4,6 млн долларов.[8]"