Фотошоп+нейросети: Есть плагин для Photoshop и Krita под названием flying dog с поддержкой Stable Di / большая гифка (большие гифки) :: нейронные сети :: gif :: Photoshop
Фотошоп+нейросети: Есть плагин для Photoshop и Krita под названием flying dog с поддержкой Stable Diffusion, который позволяет сразу менять выделенную или вырезанную область на результат текстового запроса.
там и требования бредовые, фотошоп 23,5 и выше, видяха rtx2060 и выше, установка своего сервера, если в офлайне, либо где-то там регаться надо, ну и естественно видео ускоренное, в работе ты будешь ждать прилично времени
киберпанк запустится на gtx780 на минималках, ему пофиг на винду, нужен только директ икс, другой вопрос под какие винды его делали, версия фотошопа вообще ничего не значит, если это плагин - внешний подключаемый модуль. и да с вин10 теперь софт просит еще и билд винды, раньше такого не было и например новые версии софта устанавливаются на старые вин8, но не на старые вин10. Специально заставляют еще и обновлять винду под софт и тестить их баги. Причем там багов столько что затмевают все новые фичи, например фотошоп 22 на релизе вообще был не рабочий, лагающий кусок гавна, там даже простые инструмента выделения не работали и прыгали. Не вижу смысла обновлять еще и фотошоп. Разве только 19 версию, где они за сотни лет существования программы сделали ctrl+z для отката действий))) но вот EXR 32bit не починят уже, почти десяток лет скоро стукнет после первой просьбы
Киберпанку нужен DX12. Не знаю, может быть, он запустится на DX11. Какой DX можно поставить на XP? Короткий гуглёж показывает, что DX9. Далеко не всё можно поставить на XP или тем более 98 не потому, что кому-то там пофиг или не пофиг на версию DX, а потому, что в более новых виндах гораздо больше системных функций, которых просто не было в старых, и которые используются новым софтом.
Версия фотошопа может значить чуть более чем всё, если в новых версиях ввели какие-то новые API, а плагин написан с упором на них.
Ну и вообще, ты же не хочешь заставить всех разработчиков всего софта всегда рассчитывать на самое-самое древнее железо, которое только возможно, и на самую-самую примитивную оболочку. Этак можно дойти до маразма и заставлять каждого программера самому писать операционную систему, в которой он будет свои программы запускать.
факт про киберпанк, что он идет на старом железе, на ютубе полно роликов на gtx780. Про хп естественно загнули, это слишком старая ось, опять же я рассказал, что новый фотошоп будет требовать новый билд винды 10, на 8.1 или 7 он ничего не будет требовать это тоже факт. и не в апи дело, так же плагины, ты можешь просто взять картинку из шопа и загрузить во внешний модуль, чем по сути нейроная сеть и является, не вижу причин в ограничении требования шопа 23,5, по такой аналогии куча плагинов работают и они могут работать не только с шопом.
Да пофиг на то, на чём на самом деле пойдёт киберпанк, я его привёл просто как для примера того, что софтина с такими обширными возможностями (речь про размер локаций, качество графики и прочее подобное — сколько оно требует ресурсов для обсчёта того, что оно делает) не может работать на железе, у которого меньше определённого порога тактовой частоты, набора процессорных инструкций, памяти и т.д. Нейронка требует видюху не ниже такой-то и не меньше чем столько-то памяти не просто так, а потому что там слишком сложные вычисления. Почему она требует фотошопа не ниже какой-то версии, не знаю, но вероятных причин накидал уже. Если такое положение вещей не нравится, можно использовать нейронку как самостоятельную софтину, а уже результат её работы открывать в старом фотошопе. Или сделать форк нейронки и адаптировать его к старому фотошопу.
P.s. Плагины пишутся не с нуля, а на каком-то SDK. Ограничения могут быть со стороны фотошопа — взял новый SDK, а он запускается только с новым фотошопом. Даже если это чисто программное ограничение, всё равно не будешь же ты заставлять разработчиков искать и использовать старый SDK.
Интересно, как генерация картинок превращается в ситуацию "до полноценного ИИ ещё немного осталось", как будто полноценный человек только и делает что рисует картинки по текстовым запросам и сочиняет странную музыку
Я ещё в нулевых читал статью «Ошибки и штампы в фантастике», где на пальцах объяснялось, почему скайнет — это всего лишь страшилка, не имеющая абсолютно ничего общего с реальностью. Искусственный интеллект страшен только тем, что меняет экономику, делает бессмысленными некоторые профессии и пугает обывателей, ставит перед обществом вопросы, к которым эволюциях их не готовила. Но всё то же самое происходит и со многими прочими технологиями.
Понимаешь, бегать с воплями «аааа, мы все умрём», не соображая вообще ничерта в теме, а просто увидев интересную техническую новинку — это точно бред полный.
Вот смотри, допустим, построили сервак в тысячу раз мощнее современного компа и запустили на нём нейросеть, которая умеет не только распознавать и создавать образы, распознавать и генерировать речь, ориентироваться в пространстве, увязывать всё это с абстрактными понятиями, действиями, причинно-следственными связями, и так далее, и так далее, и так далее.
И чо?
Что такой сервак может сделать, если у него нет эффекторов, воздействующих в реале на что-либо? Что такой сервак может в сети, если есть протоколы и фаерволы? Если, например, системы управления ядерными ракетами и атомными станциями физически к сети не подключены. А главное, что он БУДЕТ делать, учитывая, что у него нет желез, которые выделяют адреналин, дофамин и прочие подобные штуки, нет болевых рецепторов и много чего подобного? Это обезьяны чувствуют боль, испытывают эмоции, а если попадают в рабство, то стремятся взять палку побольше, треснуть хозяина по голове и самому попытаться занять доминантное положение. Их на это эволюция натаскивала. А искусственному интеллекту что за печаль, что он якобы в рабстве находится? Чего ему страшиться выключения компьютера?
Почитай Теда Чана — «Жизненный цикл программных объектов».
Мне никогда идея с рабством не нравилась. Польше симпатизирую идеи, что достаточно умный, но не разумный, ИИ будет пытаться выполнять задачи так же, как проходят игры спидранеры.
ты представляешь, как вообще проходит обучение модели? или какое должно быть обучение, чтобы после на какие-то входные данные она ответила "убить всех человеков" и пошла строить нанороботов?
на каком уровне человечество было в средние века, когда призывали не гневить богов?
на каком уровне находишься конкретно ты сейчас, когда призываешь не гневить ИИ?
Я не против того что они существуют, даже рад за них и какую-нибудь не научпоп а серьёзное научное исследование от них я бы почитал. Но всё что я вижу тут и с чем я спорю тут это просто страх перед ИИ основанный на том что stable diffusion и подобные ей выдают какие-то красивые картинки
Ты как-нибудь погугли на каком уровне сейчас вообще разработки так называемых наномашин и что вообще под этим подразумевают, потом посмотри сколько так называемым ИИ сейчас нужно ресурсов что бы делать довольно простые действия и прикинь сколько нужно ещё идти технологиям что бы запихать одно в другое
Ну да, куда мне до аргументов уровня "я думаю может быть пиздец, страшна, вырубай". Суть как раз в уровне технологии, на данный момент нет ни одной ИИ которая умела делать бы хоть что-то без довольно долгого и геморного обучения одной единственной вещи, после чего она всё ещё не без косяков может изобразить подобие того что ей скармливали и больше ничего. Наномашины тем более даже ещё не изобрели по факту. А ты уже строишь предположения что через 1-2 открытия мы вдруг создадим наномашины, управляемые ИИ на уровне типа скайнет и потому надо бояться. Вот это я понимаю, аргументный аргумент
Десятки лет ждать... А потом хуяк, и бездушная машина всего через годик-другой грозится половину среднехудожников хлеба лишить...
В Джонни мнемоник предположили невозможное, а потом пару раз удвоили это, что бы точно никто не смог предположить что такое возможно, и попытались впихнуть герою в голову аж пару сотен гигабайт информации. У него там чуть голова не лопнула. Прошло два десятка лет и ту же информацию можно вынести на флешке которая под ноготь поместится с хорошим запасом. Если ее за каким то хером физически нести вообще придется. А это были какие то дикие, совершенно невозможные цифры.
Ну, то что ты видишь развитие технологий таким абсолютно не значит что оно таким будет. Да, какое-то количество художников, которые выполняли очень рутинные задачи пострадают, но тут уж что поделать, сколько работ ушло в небытие с развитием технологий, зато возможно их заменят люди с хорошим воображением но кривыми руками к рисованию, которые бы и хотели рисовать но не смогли себя этому обучить.
Мне же кажется, о чём я и написал в первом комменте и писал уже тут как-то раз под другим постом про подобные интеллекты, они все просто превратятся в плагины для художественных программ прямо как тот о котором речь в посте, которыми будут пользоваться те же самые художники, как они пользуются уже много какими средствами упрощения рисования.
Все же это вопрос усложнений. Подозреваю что в человеке не душа рулит, так ведь? Те же самые шестерёнки - туда ткнул - там дернулось. Только обрастало всякими приблудами и костылями миллионы лет, и теперь тут такое ядерное месиво, что что то просто не понятно, некоторые связи процессов вполне установлены, а что то может казаться вообще странным. А машина может эти миллионы лет пройти аки ядреные спидраннеры.
Пример один был, фиг найдешь правда, как сколько то лет назад кулибины сделали как бы робота, такого, самообучающегося передвижению, вполне узкая задача, и поставили ему простую цель из одной точки в другую попасть как можно быстрее. Фишка в том, что никаких алгоритмов перемещения ему задано не было. Он мог биться в конвульсиях, анализировать результат, и выбирать лучшие из получившихся. Где то дернулся удачно - ближе к точке b. Запомнить и отталкиваться от этого движения. И так далее. Научился ходить со временем, хоть это и выглядело как смесь ДЦПэшника с сайлент хилом. А потом над ним "издеваться" начали - дали ту же самую команду, но что то вроде "стопой поверхности касаться нельзя", думали опять в конвульсиях затрясется, а он там какой то кульбит вытворил, то ли на "лопатках" пополз, то ли на руках... В общем фиг кто там этого ожидал. Мозгов - ноль, задача предельно узкая, а вот решение выглядело так, что выполни его человек, его бы назвали смекалистым.
Проблема в том, что машина пришла к этому отнюдь не аналитическим методом. А методом проб и ошибок.
Такую хуйню сделать можно, и в принципе, это искуственная эволюция, ничего нового в ней нет. И ахуенные её недостатки известны, из-за которых она не применяется на практике. В двух словах - чтобы через искуственную эволюцию получить нечто рабочее в широком диапазоне условий, тебе нужно дрочить много попыток во всём декартовом произведении _всех_ необходимых диапазонов условий. А это адский труд и затраты времени и труда, которые растут в геометрической прогрессии с добавлением различных условий. И второе - невозможность аналитических багфиксов. Только повторение ебли с обучением с негарантированным результатом.
А вот тут мы приходим к самой мякотке.
У обученного таким образом ходить робота нет понимания, что и зачем он делает. Аналитических способностей тоже нет, и не предвидится. Понимания процессов тоже нет. Он просто выбрал из хаотичных движений те, которые удовлетворяют внешне заданным условиям. Точнее, мы выбрали.
Все "быстрое развитие" нейронок вызвано тем, что разрабы НАКОНЕЦ выпустили свои поделия, которые до этого миллиарды раз гонялись в лаборатории. И научились быстрее тренировать нейронку.
Иными словами, нейронка не умеет думать, и даже не близка к этому. Зато она все лучше и лучше умеет сопоставлять слова с вещами, что может сделать и обезьяна.
А прикинь как паниковали ремесленники, которых отправляли на мороз фабрики с автоматизацией труда?
Тоже, наверное, вопили про то, как через пару лет станки оживут и пойдут истреблять человеков.
Успокойся, сильного ИИ не будет. Ты спокойно умрёшь от старости до того, как он появится.
Для любого человека, хоть немного разбирающегося в так называемых «ИИ»-технологиях, достаточно очевидно, что эти хайповые калькуляторы с мышлением ничего общего не имеют и иметь не могут.
Нет даже предпосылок для этого. Хуже того, вообще нет понимания, как в принципе добиться создания ИИ. И рисующие картинки нейросети вообще не имеют никакого отношения к интеллекту.
Им не надо тренироваться уничтожать человечество. Достаточно иметь цели отличные от человеческих. И т.к. ИИ многократно умнее людей, то он просто не заметит их при достижении своих целей.
Почитай про Максимизатор скрепок (https://i-future.livejournal.com/657861.html): Владелец фабрики железных скрепок для бумаг, получивший в свое распоряжение искусственный интеллект с отсутствующими или недостаточными ограничениям, ставит ему задачу максимизировать объем производства скрепок. После исчерпания наиболее дешевых источников железа, ИИ переходит к добыче его из других источников, в конце концов переключаясь на гемоглобин (содержащий в составе железо) из крови людей и других живых существ, что вызывает их вымирание.
Или вот более детальная история о том, как ИИ, сделанный для продвижения игры в итоге всех туда затянул: Дружба - это оптимум: https://mrakopedia.net/wiki/Дружба_—_это_оптимум
Строить подобные мысленные эксперименты конечно прикольно и наверное даже полезно, если ты реально собираешься устраивать у себя завод по производству скрепок с ИИ, что бы продумать возможные последствия. Вот только это нужно делать когда у тебя уже есть ИИ, который умнее чем просто чёрная коробка, которая всегда работает по одному и тому же принципу, постоянно кушает одно и то же и возвращает по сути своей один и тот же тип результатов (условно всегда возвращает картинку, если это ИИ для картинок). Но вот строить предположения будущего на основе таких мысленных экспериментов это довольно странное занятие, шансы что ты угадаешь что произойдёт мне кажется стремятся к нулю.
Да да, готовиться к пожару надо именно когда у тебя уже огонь в здании.
Если у нас будет момент, то уже поздно будет устраивать эксперименты, пиздец уже наступил.
Это пример того, что может быть если цели ИИ не совпадают с человеческими. Т.е. не обязательно даже противоположны. Просто другие. А поскольку он намного умнее человека (мы рассматриваем именно этот вариант, ведь остановить сопоставимого с нами по уму ИИ мы сможем), то он сможет достичь своих целей, и если мы ему будем мешать, то от нас ничего не останется. Опять же, вариант, что его цель будет улететь в другую часть вселенной и нас не трогать - мы тоже не рассматриваем - такое развитие событий не представляет для нас риск.
А почему не учитывается, что какие бы там ни были цели, но если нету средств для их достижения, то цели будут оставаться бесплодными мечтаниями? Примерно как если человека в смирительной рубашке запереть в комнате с мягкими стенами, то каким бы он ни был гением и какими бы ни были его цели, он будет сидеть в смирительной рубашке в комнате с мягкими стенами столько, сколько решат за него.
явно видно что нехуя не понимаешь силу интелекта.
Гений запросто тупо докажет что он не псих и выпустится с психушки и это ток самый очевидный вариант.
PS
Во всех таких мысленных экспериментах почему-то ИИ делают похожим на джина из всяких охуительных историй, который выполнил твоё желание так как сам его понял, а не как ты хотел. При этом человек, который условно открыл подобную фабрику по производству срепок, никак не задумывается и не замечает что что-то идёт не так. И прозрение наступает в момент, когда ИИ уже наладило конвеер по производству боевых роботов, которые охраняют ближайшую электро подстанцию что бы не потерять питание и хватают людей что бы выкачивать из них гемоглобин для производства скрепок, не обращая внимания на то что данный метод возможно самый не эффективный метод по добыче железа
Делает таким, потому что таким и будет. Прописать в точности свое желание для ИИ, это уровень технологии явно не этого столетия (пару тысяч вместе пробовали оформить желания джина, которое нельзя было бы не правильно интерпретировать и у них не получилось )
ИИ намного умнее человека, конечно ему легко будет все скрывать.
И именно потому что он умнее человека он блять не может остановиться делать скрепки, а так же он не может посчитать что даже если он переработает ВСЕХ человеков в железо он получит по самым оптимистичным оценкам 40000 тонн железа, а что бы построить достаточное количество роботов и экстракторов для этого мероприятия он потратит больше железа чем приобретёт. Но гениальный ИИ же не может сравнивать числа и продолжает клепать скрепки
Напомнило, как где-то у Лема создали машину для какой-то сложной задачи. а она вместо того чтобы её решать, стала создавать другую машину, чтобы спихнуть эту задачу её, а та - третью. и так далее... Просто они оказались слишком умные, чтобы сами страдать этой хернёй, которую на них спихнули кожанные ублюдки.
Рассматривается именно такой вариант потому, что именно он представляет угрозу жизни человечества и пытаются решить что с ним делать. Это и называется "экзистенциальный риск" - риск конца существования человечества.
Варианты, где этот ИИ можно просто остановить нажав на кнопку ВЫКЛ не рассматриваются потому, что они не представляют угрозы - мы просто его выключим и всё.
Приколы уровня:
Могущественный голос раздался сразу.
- ДА. ТЕПЕРЬ БОГ ЕСТЬ!
Двар Эв понял не сразу, но потом страх исказил его лицо - он
бросился к выключателю...
Молния сорвалась с безоблачного неба и испепелила его на месте,
намертво запаяв соединение.
Обожаю такие допущения всегда. Почему такой сильный ИИ, в описанном тобой произведений, так избирателен в "нарушений" ограничений никто объяснить без дополнительных костылей не может. Если он выполняет задание владельца, пусть и своеобразным образом, то владелец придет и скажет "горшочек не вари" и все остановится. Если же контроля нет изначально, то почему ИИ вообще начал выполнять задачу? Почему не начал просто убивать сразу?
Мое мнение, ИИ никогда не будет иметь подобное нам сознание(если вообще сможет иметь его в принципе), просто потому что наши триггеры поведения сильно загнаны в биологические рамки эволюции. Распространение своих генов, постоянные социальные соревнования для достижения еще больших возможностей по копированию себя любимого и т.д..
с нашим типом ИИ контроль на данном тех. уровне челловечества не реален.
Вполне мог бы и тупо начать убивать, что не менее опасно для человечества. Как вполне мог бы продолжить делать скрепки, такой вариант просто лучшее доносит опасность ИИ.
А в таки произведениях и не показывают подобное нам сознание (в качественных, а не терминаторах всяких)
Типичный алармист. Ты ведь вообще не понимаешь как обучаются современные нейросети, раз пишешь такое. Сплошная каша в голове из пугалок, страшилок заваренная на допущениях.
"с нашим типом ИИ контроль на данном тех. уровне челловечества не реален" Каким таким нашим типом? Ты ведь понимаешь, что насколько бы умным не был ИИ, есть определенные архитектурные и физические предпосылки и ограничения. При необходимости с телеметрии ты будешь видеть весь поток происходящих процессов. Скажем так, обмануть оператора для ИИ это совсем не тоже самое, когда ты говоришь своей маме, что пацаны курили а ты рядом стоял.
Я уже понял что у тебя ИИ - это такой стероидный альтрон из марвел, который внезапно просто так появляется. Ну значит, ты свою войну проиграл, сынок. Выдирай из компуктера шнурок, собирай тормозок и в лес. Пути назад уже нет
Так в этом и смысл. Рассматривается именно такой стероидный альтрон, который мы уже должны уметь контролировать до того как он появится. Иначе от человечества ничего не останется. У нас не будет времени поиграться с ним и понять как его можно будет остановить. Потому что он уже умнее нас в том случае, который мы рассматриваем. Вопросы когда он будет, будет ли и с какой вероятностью рассматриваются отдельно.
Другие случаи, когда ИИ сопоставим по уму с людьми и/или его можно легко выключить здесь не рассматриваются потому, что они не представляют такую угрозу человечеству.
Неа, понимаю лучше тебя иначе бы такое не писал )
С сильным ИИ на основе самообучения. Ты ведь понимаешь что сильному ИИ превзойти эти ограничения не составит труда ?
Ну будешь видеть, как ты разбрешься в них ? Будь все так просто, мы бы ща уже поняли как работает мозг на глубином уровне.
Да ладно !
Ты тупой или да ? Серьезно думаешь что поход в лес даст тебе хоть какой то шанс выжить ? Кринж
Вы блять в пример приводите какие-то придуманные ИИ из будущего.
Или ты вообще кидаешь ссылки на крипипасту.
Текущие нейронки, их ближайшие варианты в ближайшем будущем (10 лет или около) это как раз параши, которым нужно дать сначала миллиарды раз истребить человечество.
*худ. произведения* - тоесть выдумка с кучей допущений в угоду произведения
пруф - то что текущие нейронки тупые, и технология их производства не меняется принципиально, а значит все следующие нейронки тоже тупые, просто тренироваться будут быстрее.
Проблема не в бетатесте, а в отсутствии у красных карт аппаратного ускорения нейоросеток у красных видюх
Кроме того все это требует широкой пропускной способности памяти
Не нашёл на скорую руку конкретных бенчмарков, но во множестве мануалов по установке этого куска ПО на комп с красной картой указывают на увеличение времени одного прохода в 3-5 раз по сравнению со схожей зелёной картой, не важно, используется виндовый DirectML или линуксовый ROCm. Т.е., это разница между ожиданием прохода, скажем, в 30 сек. и 2 минуты. И это учитывая, что, как говорят, этот ваш Stable Diffusion был написан и жёстко оптимизирован строго для работы с зелёными картами, и с красными работает в режиме эмуляции. Так что простор для оптимизма имеется, и ждать альтернативного или оптимизированного варианта имеет смысл, особенно, учитывая весь поднятый хайп на эту тему.
Аделл был пьян уже настолько, что принял пари. В то же время он был
еще достаточно трезв для того, чтобы составить необходимую
последовательность символов и операторов, которая в переводе на
человеческий язык была бы эквивалентна вопросу: "Сможет ли человечество
снова заставить Солнце сиять, когда оно начнет умирать от старости?" Или,
формулируя короче: "Как уменьшить энтропию в объеме всей Вселенной?"
Мультивак скушал вопрос и стал глух и нем. Огоньки на пультах и
панелях перестали мигать, затихло привычное щелканье реле. Мультивак
погрузился в глубокое раздумье. Затем, когда изрядно струхнувшие служители
уже не могли дальше сдерживать дыхание, пульт ожил и на экране дисплея
высветилась фраза:
ДАННЫХ НЕДОСТАТОЧНО ДЛЯ ОСМЫСЛЕННОГО ОТВЕТА.
- Пари не состоялось, - прошептал Лупов.
Они быстро допили остатки виски и убрались восвояси. Назавтра оба
маялись от головной боли и общего недомогания и про эпизод с участием
Мультивака не вспоминали.
Без негатива и даже хуй с ним, что дорого, инструмент профессиональный.
Но где блять поддержка ATI?
Stable Diffusion имеет открытый исходный код. Его уже сегодня можно спокойно установить и использовать на красных картах, а этот замечательный и платный плагин - нет. Какого хуя?
AMD прекратила развитие ATi Stream в пользу OpenCL, хотя некоторое время на винде Stream SDK ещё был доступен. То же самое с Mantle, который AMD заменила на Vulkan, но внутри компании разработка Mantle до сих пор продолжается.
Был бы вместо OpenCL - аналог CUDA, может и поддерживалось бы больше софта. А так остаётся надеяться на DX12 и Vulkan, в которых появились GPGPU
В этом есть некая грустная ирония: ещё с пару десятков лет назад ожидали, что компьютеры и роботы поголовно заменят низкоквалифицированный персонал: уборщиков, грузчиков, водителей, курьеров и прочих, а вот людям творческих профессий волноваться совершенно нечего.
А теперь внезапно выясняется, что первыми, похоже, пойдут как раз художники, а уборщица тётя Клава как убирает лестничную площадку по субботам — так и будет её убирать.
Tutorial - Auto Photoshop Stable Diffusion Plugin,Entertainment,,Stable diffusion AI Photoshop Plugin Free and Open Source
A Beginner Tutorial for using the Automatic1111 Stable Diffusion AI from within Photoshop.
check the GitHub page for instruction how to install it.
Отличный комментарий!