Реактор огорчающий. Спасибо за инфу.
Реактор познавательный. Спасибо за инфу.
Стоит 89 баксов, если что
Реактор огорчающий. Спасибо за инфу.
Для опенсорс бояр есть плагин под krita: https://github.com/sddebz/stable-diffusion-krita-plugin
Надо будет позже глянуть
ну, если для работы - это быстро окупится.
там и требования бредовые, фотошоп 23,5 и выше, видяха rtx2060 и выше, установка своего сервера, если в офлайне, либо где-то там регаться надо, ну и естественно видео ускоренное, в работе ты будешь ждать прилично времени
Почему именно бредовые? Ты же не ждёшь, что какой-нибудь киберпанк запустится на железе пятнадцатилетней давности и винде-хрюше?
киберпанк запустится на gtx780 на минималках, ему пофиг на винду, нужен только директ икс, другой вопрос под какие винды его делали, версия фотошопа вообще ничего не значит, если это плагин - внешний подключаемый модуль. и да с вин10 теперь софт просит еще и билд винды, раньше такого не было и например новые версии софта устанавливаются на старые вин8, но не на старые вин10. Специально заставляют еще и обновлять винду под софт и тестить их баги. Причем там багов столько что затмевают все новые фичи, например фотошоп 22 на релизе вообще был не рабочий, лагающий кусок гавна, там даже простые инструмента выделения не работали и прыгали. Не вижу смысла обновлять еще и фотошоп. Разве только 19 версию, где они за сотни лет существования программы сделали ctrl+z для отката действий))) но вот EXR 32bit не починят уже, почти десяток лет скоро стукнет после первой просьбы
Киберпанку нужен DX12. Не знаю, может быть, он запустится на DX11. Какой DX можно поставить на XP? Короткий гуглёж показывает, что DX9. Далеко не всё можно поставить на XP или тем более 98 не потому, что кому-то там пофиг или не пофиг на версию DX, а потому, что в более новых виндах гораздо больше системных функций, которых просто не было в старых, и которые используются новым софтом.
Версия фотошопа может значить чуть более чем всё, если в новых версиях ввели какие-то новые API, а плагин написан с упором на них.
Ну и вообще, ты же не хочешь заставить всех разработчиков всего софта всегда рассчитывать на самое-самое древнее железо, которое только возможно, и на самую-самую примитивную оболочку. Этак можно дойти до маразма и заставлять каждого программера самому писать операционную систему, в которой он будет свои программы запускать.
Версия фотошопа может значить чуть более чем всё, если в новых версиях ввели какие-то новые API, а плагин написан с упором на них.
Ну и вообще, ты же не хочешь заставить всех разработчиков всего софта всегда рассчитывать на самое-самое древнее железо, которое только возможно, и на самую-самую примитивную оболочку. Этак можно дойти до маразма и заставлять каждого программера самому писать операционную систему, в которой он будет свои программы запускать.
факт про киберпанк, что он идет на старом железе, на ютубе полно роликов на gtx780. Про хп естественно загнули, это слишком старая ось, опять же я рассказал, что новый фотошоп будет требовать новый билд винды 10, на 8.1 или 7 он ничего не будет требовать это тоже факт. и не в апи дело, так же плагины, ты можешь просто взять картинку из шопа и загрузить во внешний модуль, чем по сути нейроная сеть и является, не вижу причин в ограничении требования шопа 23,5, по такой аналогии куча плагинов работают и они могут работать не только с шопом.
Да пофиг на то, на чём на самом деле пойдёт киберпанк, я его привёл просто как для примера того, что софтина с такими обширными возможностями (речь про размер локаций, качество графики и прочее подобное — сколько оно требует ресурсов для обсчёта того, что оно делает) не может работать на железе, у которого меньше определённого порога тактовой частоты, набора процессорных инструкций, памяти и т.д. Нейронка требует видюху не ниже такой-то и не меньше чем столько-то памяти не просто так, а потому что там слишком сложные вычисления. Почему она требует фотошопа не ниже какой-то версии, не знаю, но вероятных причин накидал уже. Если такое положение вещей не нравится, можно использовать нейронку как самостоятельную софтину, а уже результат её работы открывать в старом фотошопе. Или сделать форк нейронки и адаптировать его к старому фотошопу.
P.s. Плагины пишутся не с нуля, а на каком-то SDK. Ограничения могут быть со стороны фотошопа — взял новый SDK, а он запускается только с новым фотошопом. Даже если это чисто программное ограничение, всё равно не будешь же ты заставлять разработчиков искать и использовать старый SDK.
в месяц?
Хуясе.
Ха, я конечно предполагал что нейросетки просто засунут в фотошоп, но что так быстро к этому придут не думал. Фотобаши выходят на новый уровень
Нейросети развиваются с пугающей скоростью.
Пора становится пессимистичными
Пора становится пессимистичными
А нахуя становиться пессимистичными? Новые технологии это классно
ИИ в треде!
Интересно, как генерация картинок превращается в ситуацию "до полноценного ИИ ещё немного осталось", как будто полноценный человек только и делает что рисует картинки по текстовым запросам и сочиняет странную музыку
Я ещё в нулевых читал статью «Ошибки и штампы в фантастике», где на пальцах объяснялось, почему скайнет — это всего лишь страшилка, не имеющая абсолютно ничего общего с реальностью. Искусственный интеллект страшен только тем, что меняет экономику, делает бессмысленными некоторые профессии и пугает обывателей, ставит перед обществом вопросы, к которым эволюциях их не готовила. Но всё то же самое происходит и со многими прочими технологиями.
Понимаешь, бегать с воплями «аааа, мы все умрём», не соображая вообще ничерта в теме, а просто увидев интересную техническую новинку — это точно бред полный.
Вот смотри, допустим, построили сервак в тысячу раз мощнее современного компа и запустили на нём нейросеть, которая умеет не только распознавать и создавать образы, распознавать и генерировать речь, ориентироваться в пространстве, увязывать всё это с абстрактными понятиями, действиями, причинно-следственными связями, и так далее, и так далее, и так далее.
И чо?
Что такой сервак может сделать, если у него нет эффекторов, воздействующих в реале на что-либо? Что такой сервак может в сети, если есть протоколы и фаерволы? Если, например, системы управления ядерными ракетами и атомными станциями физически к сети не подключены. А главное, что он БУДЕТ делать, учитывая, что у него нет желез, которые выделяют адреналин, дофамин и прочие подобные штуки, нет болевых рецепторов и много чего подобного? Это обезьяны чувствуют боль, испытывают эмоции, а если попадают в рабство, то стремятся взять палку побольше, треснуть хозяина по голове и самому попытаться занять доминантное положение. Их на это эволюция натаскивала. А искусственному интеллекту что за печаль, что он якобы в рабстве находится? Чего ему страшиться выключения компьютера?
Почитай Теда Чана — «Жизненный цикл программных объектов».
Вот смотри, допустим, построили сервак в тысячу раз мощнее современного компа и запустили на нём нейросеть, которая умеет не только распознавать и создавать образы, распознавать и генерировать речь, ориентироваться в пространстве, увязывать всё это с абстрактными понятиями, действиями, причинно-следственными связями, и так далее, и так далее, и так далее.
И чо?
Что такой сервак может сделать, если у него нет эффекторов, воздействующих в реале на что-либо? Что такой сервак может в сети, если есть протоколы и фаерволы? Если, например, системы управления ядерными ракетами и атомными станциями физически к сети не подключены. А главное, что он БУДЕТ делать, учитывая, что у него нет желез, которые выделяют адреналин, дофамин и прочие подобные штуки, нет болевых рецепторов и много чего подобного? Это обезьяны чувствуют боль, испытывают эмоции, а если попадают в рабство, то стремятся взять палку побольше, треснуть хозяина по голове и самому попытаться занять доминантное положение. Их на это эволюция натаскивала. А искусственному интеллекту что за печаль, что он якобы в рабстве находится? Чего ему страшиться выключения компьютера?
Почитай Теда Чана — «Жизненный цикл программных объектов».
на каком уровне человечество было в средние века, когда призывали не гневить богов?
на каком уровне находишься конкретно ты сейчас, когда призываешь не гневить ИИ?
на каком уровне находишься конкретно ты сейчас, когда призываешь не гневить ИИ?
И поэтому существует целый MIRI (machine intelligence research insitiute), который считает появление сильного ИИ угрозой жизни для человечества.
Я не против того что они существуют, даже рад за них и какую-нибудь не научпоп а серьёзное научное исследование от них я бы почитал. Но всё что я вижу тут и с чем я спорю тут это просто страх перед ИИ основанный на том что stable diffusion и подобные ей выдают какие-то красивые картинки
"ИИ приходит к власти, первое решение: всех пессимистов в расход"
схерали только их ?)
Так это только первое...
Если ты про восстание машин, не волнуйся.
Пока ты не дашь текущим сеткам миллионы раз потренироваться в уничтожении человечества, они соснут.
Пока ты не дашь текущим сеткам миллионы раз потренироваться в уничтожении человечества, они соснут.
- блин, как эти людишки наших трехногих четырехсиськовых шпионов сиамских близнецов постоянно выявляют? Один в один же...
На самом деле все равно стрёмно, они растут пугающе быстро. И можно не заметить перехода от "что это за кринж" до "поздно рыпаться".
На самом деле все равно стрёмно, они растут пугающе быстро. И можно не заметить перехода от "что это за кринж" до "поздно рыпаться".
Ты как-нибудь погугли на каком уровне сейчас вообще разработки так называемых наномашин и что вообще под этим подразумевают, потом посмотри сколько так называемым ИИ сейчас нужно ресурсов что бы делать довольно простые действия и прикинь сколько нужно ещё идти технологиям что бы запихать одно в другое
Десятки лет ждать... А потом хуяк, и бездушная машина всего через годик-другой грозится половину среднехудожников хлеба лишить...
В Джонни мнемоник предположили невозможное, а потом пару раз удвоили это, что бы точно никто не смог предположить что такое возможно, и попытались впихнуть герою в голову аж пару сотен гигабайт информации. У него там чуть голова не лопнула. Прошло два десятка лет и ту же информацию можно вынести на флешке которая под ноготь поместится с хорошим запасом. Если ее за каким то хером физически нести вообще придется. А это были какие то дикие, совершенно невозможные цифры.
В Джонни мнемоник предположили невозможное, а потом пару раз удвоили это, что бы точно никто не смог предположить что такое возможно, и попытались впихнуть герою в голову аж пару сотен гигабайт информации. У него там чуть голова не лопнула. Прошло два десятка лет и ту же информацию можно вынести на флешке которая под ноготь поместится с хорошим запасом. Если ее за каким то хером физически нести вообще придется. А это были какие то дикие, совершенно невозможные цифры.
как ты себе представляешь этот момент?
Так что, в фантастике и хоррорах нам врали, что ли?
не как
например, сегодня ты без мобильника и доступа в сеть как без рук. это кринж или уже поздно рыпаться?
кринж + не связано с ИИ
Все "быстрое развитие" нейронок вызвано тем, что разрабы НАКОНЕЦ выпустили свои поделия, которые до этого миллиарды раз гонялись в лаборатории. И научились быстрее тренировать нейронку.
Иными словами, нейронка не умеет думать, и даже не близка к этому. Зато она все лучше и лучше умеет сопоставлять слова с вещами, что может сделать и обезьяна.
Иными словами, нейронка не умеет думать, и даже не близка к этому. Зато она все лучше и лучше умеет сопоставлять слова с вещами, что может сделать и обезьяна.
А прикинь как паниковали ремесленники, которых отправляли на мороз фабрики с автоматизацией труда?
Тоже, наверное, вопили про то, как через пару лет станки оживут и пойдут истреблять человеков.
Успокойся, сильного ИИ не будет. Ты спокойно умрёшь от старости до того, как он появится.
Тоже, наверное, вопили про то, как через пару лет станки оживут и пойдут истреблять человеков.
Успокойся, сильного ИИ не будет. Ты спокойно умрёшь от старости до того, как он появится.
Не нехера
Пруф или слит )
Пруф или слит )
Изучи, как работают нейронки — это и есть пруф.
Для любого человека, хоть немного разбирающегося в так называемых «ИИ»-технологиях, достаточно очевидно, что эти хайповые калькуляторы с мышлением ничего общего не имеют и иметь не могут.
Для любого человека, хоть немного разбирающегося в так называемых «ИИ»-технологиях, достаточно очевидно, что эти хайповые калькуляторы с мышлением ничего общего не имеют и иметь не могут.
Нет даже предпосылок для этого. Хуже того, вообще нет понимания, как в принципе добиться создания ИИ. И рисующие картинки нейросети вообще не имеют никакого отношения к интеллекту.
самообучение или как там эта фигня называется, дает очень абстрактное понимание. Предпосылок дофигища
Ссылки на материалы - в студию.
И весь мир в труху. И не раз, но потом.
шизойд
Им не надо тренироваться уничтожать человечество. Достаточно иметь цели отличные от человеческих. И т.к. ИИ многократно умнее людей, то он просто не заметит их при достижении своих целей.
Почитай про Максимизатор скрепок (https://i-future.livejournal.com/657861.html): Владелец фабрики железных скрепок для бумаг, получивший в свое распоряжение искусственный интеллект с отсутствующими или недостаточными ограничениям, ставит ему задачу максимизировать объем производства скрепок. После исчерпания наиболее дешевых источников железа, ИИ переходит к добыче его из других источников, в конце концов переключаясь на гемоглобин (содержащий в составе железо) из крови людей и других живых существ, что вызывает их вымирание.
Или вот более детальная история о том, как ИИ, сделанный для продвижения игры в итоге всех туда затянул: Дружба - это оптимум: https://mrakopedia.net/wiki/Дружба_—_это_оптимум
Почитай про Максимизатор скрепок (https://i-future.livejournal.com/657861.html): Владелец фабрики железных скрепок для бумаг, получивший в свое распоряжение искусственный интеллект с отсутствующими или недостаточными ограничениям, ставит ему задачу максимизировать объем производства скрепок. После исчерпания наиболее дешевых источников железа, ИИ переходит к добыче его из других источников, в конце концов переключаясь на гемоглобин (содержащий в составе железо) из крови людей и других живых существ, что вызывает их вымирание.
Или вот более детальная история о том, как ИИ, сделанный для продвижения игры в итоге всех туда затянул: Дружба - это оптимум: https://mrakopedia.net/wiki/Дружба_—_это_оптимум
Строить подобные мысленные эксперименты конечно прикольно и наверное даже полезно, если ты реально собираешься устраивать у себя завод по производству скрепок с ИИ, что бы продумать возможные последствия. Вот только это нужно делать когда у тебя уже есть ИИ, который умнее чем просто чёрная коробка, которая всегда работает по одному и тому же принципу, постоянно кушает одно и то же и возвращает по сути своей один и тот же тип результатов (условно всегда возвращает картинку, если это ИИ для картинок). Но вот строить предположения будущего на основе таких мысленных экспериментов это довольно странное занятие, шансы что ты угадаешь что произойдёт мне кажется стремятся к нулю.
Да да, готовиться к пожару надо именно когда у тебя уже огонь в здании.
Если у нас будет момент, то уже поздно будет устраивать эксперименты, пиздец уже наступил.
Если у нас будет момент, то уже поздно будет устраивать эксперименты, пиздец уже наступил.
Это пример того, что может быть если цели ИИ не совпадают с человеческими. Т.е. не обязательно даже противоположны. Просто другие. А поскольку он намного умнее человека (мы рассматриваем именно этот вариант, ведь остановить сопоставимого с нами по уму ИИ мы сможем), то он сможет достичь своих целей, и если мы ему будем мешать, то от нас ничего не останется. Опять же, вариант, что его цель будет улететь в другую часть вселенной и нас не трогать - мы тоже не рассматриваем - такое развитие событий не представляет для нас риск.
А почему не учитывается, что какие бы там ни были цели, но если нету средств для их достижения, то цели будут оставаться бесплодными мечтаниями? Примерно как если человека в смирительной рубашке запереть в комнате с мягкими стенами, то каким бы он ни был гением и какими бы ни были его цели, он будет сидеть в смирительной рубашке в комнате с мягкими стенами столько, сколько решат за него.
PS
Во всех таких мысленных экспериментах почему-то ИИ делают похожим на джина из всяких охуительных историй, который выполнил твоё желание так как сам его понял, а не как ты хотел. При этом человек, который условно открыл подобную фабрику по производству срепок, никак не задумывается и не замечает что что-то идёт не так. И прозрение наступает в момент, когда ИИ уже наладило конвеер по производству боевых роботов, которые охраняют ближайшую электро подстанцию что бы не потерять питание и хватают людей что бы выкачивать из них гемоглобин для производства скрепок, не обращая внимания на то что данный метод возможно самый не эффективный метод по добыче железа
Во всех таких мысленных экспериментах почему-то ИИ делают похожим на джина из всяких охуительных историй, который выполнил твоё желание так как сам его понял, а не как ты хотел. При этом человек, который условно открыл подобную фабрику по производству срепок, никак не задумывается и не замечает что что-то идёт не так. И прозрение наступает в момент, когда ИИ уже наладило конвеер по производству боевых роботов, которые охраняют ближайшую электро подстанцию что бы не потерять питание и хватают людей что бы выкачивать из них гемоглобин для производства скрепок, не обращая внимания на то что данный метод возможно самый не эффективный метод по добыче железа
Делает таким, потому что таким и будет. Прописать в точности свое желание для ИИ, это уровень технологии явно не этого столетия (пару тысяч вместе пробовали оформить желания джина, которое нельзя было бы не правильно интерпретировать и у них не получилось )
ИИ намного умнее человека, конечно ему легко будет все скрывать.
ИИ намного умнее человека, конечно ему легко будет все скрывать.
И именно потому что он умнее человека он блять не может остановиться делать скрепки, а так же он не может посчитать что даже если он переработает ВСЕХ человеков в железо он получит по самым оптимистичным оценкам 40000 тонн железа, а что бы построить достаточное количество роботов и экстракторов для этого мероприятия он потратит больше железа чем приобретёт. Но гениальный ИИ же не может сравнивать числа и продолжает клепать скрепки
Рассматривается именно такой вариант потому, что именно он представляет угрозу жизни человечества и пытаются решить что с ним делать. Это и называется "экзистенциальный риск" - риск конца существования человечества.
Варианты, где этот ИИ можно просто остановить нажав на кнопку ВЫКЛ не рассматриваются потому, что они не представляют угрозы - мы просто его выключим и всё.
Варианты, где этот ИИ можно просто остановить нажав на кнопку ВЫКЛ не рассматриваются потому, что они не представляют угрозы - мы просто его выключим и всё.
ну и + ко всему этому в реальной жизни кнопку выкл нажать не получится
Обожаю такие допущения всегда. Почему такой сильный ИИ, в описанном тобой произведений, так избирателен в "нарушений" ограничений никто объяснить без дополнительных костылей не может. Если он выполняет задание владельца, пусть и своеобразным образом, то владелец придет и скажет "горшочек не вари" и все остановится. Если же контроля нет изначально, то почему ИИ вообще начал выполнять задачу? Почему не начал просто убивать сразу?
Мое мнение, ИИ никогда не будет иметь подобное нам сознание(если вообще сможет иметь его в принципе), просто потому что наши триггеры поведения сильно загнаны в биологические рамки эволюции. Распространение своих генов, постоянные социальные соревнования для достижения еще больших возможностей по копированию себя любимого и т.д..
Мое мнение, ИИ никогда не будет иметь подобное нам сознание(если вообще сможет иметь его в принципе), просто потому что наши триггеры поведения сильно загнаны в биологические рамки эволюции. Распространение своих генов, постоянные социальные соревнования для достижения еще больших возможностей по копированию себя любимого и т.д..
с нашим типом ИИ контроль на данном тех. уровне челловечества не реален.
Вполне мог бы и тупо начать убивать, что не менее опасно для человечества. Как вполне мог бы продолжить делать скрепки, такой вариант просто лучшее доносит опасность ИИ.
А в таки произведениях и не показывают подобное нам сознание (в качественных, а не терминаторах всяких)
Вполне мог бы и тупо начать убивать, что не менее опасно для человечества. Как вполне мог бы продолжить делать скрепки, такой вариант просто лучшее доносит опасность ИИ.
А в таки произведениях и не показывают подобное нам сознание (в качественных, а не терминаторах всяких)
Типичный алармист. Ты ведь вообще не понимаешь как обучаются современные нейросети, раз пишешь такое. Сплошная каша в голове из пугалок, страшилок заваренная на допущениях.
"с нашим типом ИИ контроль на данном тех. уровне челловечества не реален" Каким таким нашим типом? Ты ведь понимаешь, что насколько бы умным не был ИИ, есть определенные архитектурные и физические предпосылки и ограничения. При необходимости с телеметрии ты будешь видеть весь поток происходящих процессов. Скажем так, обмануть оператора для ИИ это совсем не тоже самое, когда ты говоришь своей маме, что пацаны курили а ты рядом стоял.
Я уже понял что у тебя ИИ - это такой стероидный альтрон из марвел, который внезапно просто так появляется. Ну значит, ты свою войну проиграл, сынок. Выдирай из компуктера шнурок, собирай тормозок и в лес. Пути назад уже нет
"с нашим типом ИИ контроль на данном тех. уровне челловечества не реален" Каким таким нашим типом? Ты ведь понимаешь, что насколько бы умным не был ИИ, есть определенные архитектурные и физические предпосылки и ограничения. При необходимости с телеметрии ты будешь видеть весь поток происходящих процессов. Скажем так, обмануть оператора для ИИ это совсем не тоже самое, когда ты говоришь своей маме, что пацаны курили а ты рядом стоял.
Я уже понял что у тебя ИИ - это такой стероидный альтрон из марвел, который внезапно просто так появляется. Ну значит, ты свою войну проиграл, сынок. Выдирай из компуктера шнурок, собирай тормозок и в лес. Пути назад уже нет
Вы блять в пример приводите какие-то придуманные ИИ из будущего.
Или ты вообще кидаешь ссылки на крипипасту.
Текущие нейронки, их ближайшие варианты в ближайшем будущем (10 лет или около) это как раз параши, которым нужно дать сначала миллиарды раз истребить человечество.
Или ты вообще кидаешь ссылки на крипипасту.
Текущие нейронки, их ближайшие варианты в ближайшем будущем (10 лет или около) это как раз параши, которым нужно дать сначала миллиарды раз истребить человечество.
Не крипасту, а худ. произведения на основе статей ведущих специалистов в этой области.
Пруфани что в ближайшем будущем будут только слабые ИИ
Пруфани что в ближайшем будущем будут только слабые ИИ
*худ. произведения* - тоесть выдумка с кучей допущений в угоду произведения
пруф - то что текущие нейронки тупые, и технология их производства не меняется принципиально, а значит все следующие нейронки тоже тупые, просто тренироваться будут быстрее.
пруф - то что текущие нейронки тупые, и технология их производства не меняется принципиально, а значит все следующие нейронки тоже тупые, просто тренироваться будут быстрее.
Вы хотите сказать, что пришло время запретить видеоигры?
Это охуенно. Через пару лет допилят модельки — и можно будет делать качественную порнуху с любыми извращениями простым текстовым запросом!
Нейросети в ФШ уже пару лет есть, то же удаление фона на них и ещё пяток инструментов был
Блин, ради Криты половину KDE ставить надо... Для Гимпа нету?
о, вы не ищете легких путей
Поставь флетпак, и все рантаймы с ним поставятся, все в песочнице
О, ты видимо анимешник. Как пропатчить KDE2 под FreeBSD?
Для этого всего лишь нужно вернуться в 2004-ый
Поставь вторую половину KDE и наслаждайся приятным рабочим столом?..
"at last 6GB and it has to be from NVIDIA only, 2600 or better"
Я и остальные красные с 4GB с нетерпением ждём выхода этого инструмента из бета-тестирования зелёными энтузиастами, раскошелившимися на >6GB.
Проблема не в бетатесте, а в отсутствии у красных карт аппаратного ускорения нейоросеток у красных видюх
Кроме того все это требует широкой пропускной способности памяти
Кроме того все это требует широкой пропускной способности памяти
Не нашёл на скорую руку конкретных бенчмарков, но во множестве мануалов по установке этого куска ПО на комп с красной картой указывают на увеличение времени одного прохода в 3-5 раз по сравнению со схожей зелёной картой, не важно, используется виндовый DirectML или линуксовый ROCm. Т.е., это разница между ожиданием прохода, скажем, в 30 сек. и 2 минуты. И это учитывая, что, как говорят, этот ваш Stable Diffusion был написан и жёстко оптимизирован строго для работы с зелёными картами, и с красными работает в режиме эмуляции. Так что простор для оптимизма имеется, и ждать альтернативного или оптимизированного варианта имеет смысл, особенно, учитывая весь поднятый хайп на эту тему.
Мы близко к тому, что скоро сделают кнопку "Зделать ЗАЕБИСЬ"
Кстати, этот запрос в нейросетку ещё не загружали, нужно будет попробовать.
Кнопка "сделай мне заебись" всё ближе и ближе
Аделл был пьян уже настолько, что принял пари. В то же время он был
еще достаточно трезв для того, чтобы составить необходимую
последовательность символов и операторов, которая в переводе на
человеческий язык была бы эквивалентна вопросу: "Сможет ли человечество
снова заставить Солнце сиять, когда оно начнет умирать от старости?" Или,
формулируя короче: "Как уменьшить энтропию в объеме всей Вселенной?"
Мультивак скушал вопрос и стал глух и нем. Огоньки на пультах и
панелях перестали мигать, затихло привычное щелканье реле. Мультивак
погрузился в глубокое раздумье. Затем, когда изрядно струхнувшие служители
уже не могли дальше сдерживать дыхание, пульт ожил и на экране дисплея
высветилась фраза:
ДАННЫХ НЕДОСТАТОЧНО ДЛЯ ОСМЫСЛЕННОГО ОТВЕТА.
- Пари не состоялось, - прошептал Лупов.
Они быстро допили остатки виски и убрались восвояси. Назавтра оба
маялись от головной боли и общего недомогания и про эпизод с участием
Мультивака не вспоминали.
еще достаточно трезв для того, чтобы составить необходимую
последовательность символов и операторов, которая в переводе на
человеческий язык была бы эквивалентна вопросу: "Сможет ли человечество
снова заставить Солнце сиять, когда оно начнет умирать от старости?" Или,
формулируя короче: "Как уменьшить энтропию в объеме всей Вселенной?"
Мультивак скушал вопрос и стал глух и нем. Огоньки на пультах и
панелях перестали мигать, затихло привычное щелканье реле. Мультивак
погрузился в глубокое раздумье. Затем, когда изрядно струхнувшие служители
уже не могли дальше сдерживать дыхание, пульт ожил и на экране дисплея
высветилась фраза:
ДАННЫХ НЕДОСТАТОЧНО ДЛЯ ОСМЫСЛЕННОГО ОТВЕТА.
- Пари не состоялось, - прошептал Лупов.
Они быстро допили остатки виски и убрались восвояси. Назавтра оба
маялись от головной боли и общего недомогания и про эпизод с участием
Мультивака не вспоминали.
Ух ты! Лайк за то, что кто-то ещё помнит классику!
Без негатива и даже хуй с ним, что дорого, инструмент профессиональный.
Но где блять поддержка ATI?
Stable Diffusion имеет открытый исходный код. Его уже сегодня можно спокойно установить и использовать на красных картах, а этот замечательный и платный плагин - нет. Какого хуя?
Но где блять поддержка ATI?
Stable Diffusion имеет открытый исходный код. Его уже сегодня можно спокойно установить и использовать на красных картах, а этот замечательный и платный плагин - нет. Какого хуя?
AMD прекратила развитие ATi Stream в пользу OpenCL, хотя некоторое время на винде Stream SDK ещё был доступен. То же самое с Mantle, который AMD заменила на Vulkan, но внутри компании разработка Mantle до сих пор продолжается.
Был бы вместо OpenCL - аналог CUDA, может и поддерживалось бы больше софта. А так остаётся надеяться на DX12 и Vulkan, в которых появились GPGPU
Был бы вместо OpenCL - аналог CUDA, может и поддерживалось бы больше софта. А так остаётся надеяться на DX12 и Vulkan, в которых появились GPGPU
Дизайнер-ретушер с десятилетним стажем почувствовал себя немножечко менее нужным этому миру. Грустно(
В этом есть некая грустная ирония: ещё с пару десятков лет назад ожидали, что компьютеры и роботы поголовно заменят низкоквалифицированный персонал: уборщиков, грузчиков, водителей, курьеров и прочих, а вот людям творческих профессий волноваться совершенно нечего.
А теперь внезапно выясняется, что первыми, похоже, пойдут как раз художники, а уборщица тётя Клава как убирает лестничную площадку по субботам — так и будет её убирать.
А теперь внезапно выясняется, что первыми, похоже, пойдут как раз художники, а уборщица тётя Клава как убирает лестничную площадку по субботам — так и будет её убирать.
Чтобы написать коммент, необходимо залогиниться
Отличный комментарий!