Результаты поиска по запросу "Ии"

ИА Панорама - на шаг впереди

Отличный комментарий!

А я вот уже давно говорю что анимешники и фурри следующие после лгбт, но мне не верят.
Когда полицаи хватали ЛГБТ-шников, я молчал: я же не был геем.
Когда они сажали фурри, я молчал: я же не был фурфагом.
Когда они хватали анимешников, я молчал: я же не смотрю аниме.
Когда они пришли за мной — заступиться за меня было уже некому.

Ларри Эллисон: обширные системы наблюдения на базе ИИ гарантируют, что люди будут вести себя наилучшим образом.

Ларри Эллисон, сооснователь и CTO Oracle, один из самых богатых людей в мире с состоянием 157 миллиардов, на собрании с инвесторами поделился своим видением о будущем систем наблюдения.
Он сказал, что ИИ откроет совершенно новую эру наблюдения, что в будущем искусственный интеллект будет использоваться для анализа обширных систем наблюдения, таких как камеры видеонаблюдения, нательные камеры полиции, камеры дверных звонков и камеры на приборных панелях автомобилей.
"У нас будет надзор", — сказал Эллисон. "Каждый полицейский будет постоянно находиться под присмотром, и если возникнет проблема, ИИ сообщит об этой проблеме соответствующему лицу. Граждане будут вести себя наилучшим образом, потому что мы постоянно записываем и сообщаем обо всем, что происходит."
Эллисон также ожидает, что дроны с искусственным интеллектом заменят полицейские машины в погонях.
Он также сказал, что Оракл строит ядерный реактор, чтобы снабжать электричеством акры датацентров, которые строят они же. А еще, что те, кто хотят составить конкуренцию ведущим компаниям мира в области ИИ, в ближайшие три года должны будут потратить не меньше сотни миллиардов долларов. Что, наверное, недалеко от истины, учитывая, что OpanAI вместе Microsoft, Google и Amazon - все заявляли, что собираются потратить в ближайшие годы 100+ миллиардов на датацентры каждый.

Отличный комментарий!

" Челядь должна быть в стойле " ....

Фотоника для ИИ: вычисления должны быть экономными

Хорошая новость: нехватке чипов для новых дата-центров, что строятся сейчас специально под решение задач генеративного ИИ (начиная с тренировки новых, ещё более прогрессивных моделей, для чего необходимы изрядные вычислительные мощности), похоже, приходит конец. Новость похуже: энергии для питания всех этих чипов требуется — по мере усложнения ИИ-моделей — существенно больше
Ажиотаж в отношении генеративного ИИ, разразившийся осенью 2022-го, до сей поры и не думает утихать — и потому вплоть до начала второго квартала 2024 г. тайваньский чимпейкер TSMC, пока один только в мире и способный не только изготавливать нужные микросхемы по требуемым производственным нормам, но и упаковывать их по самой передовой «трёхмерной» технологии CoWoS (chip-on-wafer-on-substrate), едва справлялся с неуклонно растущим потоком заказов от дизайнеров соответствующих чипов; в первую очередь от NVIDIA. Теперь, к счастью, на Тайване в строй начинают входить новые упаковочные линии CoWoS, так что доступное для приобретения заинтересованными изготовителями серверных видеокарт (точнее будет называть их тензорными вычислителями, конечно, — исключительно для генерации компьютерного видео они давно не применяются) количество соответствующих чипов растёт с каждым месяцем — и, значит, это узкое место в развитии мировой ИИ-индустрии удалось расширить.
*Но в гонку включается Марк Цукерберг*
*Дальше - лонгрид про современное положение дел, как-то проблемы использования полупроводников*
Фотоны — дело совершенно иное: они движутся в среде прямолинейно (точнее, по геодезическим линиям, — но эффекты общей теории относительности в данном случае учитывать нет смысла), подчиняясь линейным уравнениям Максвелла. И потому оптические приборы, если не принимать в расчёт неизбежное рассеяние/затухание света в них, безыскусно линейны: мощность выходного потока для них в общем случае пропорциональна мощности входного. Как же в таком случае организовывать логические контуры? «То, что нам мешает, то нам и поможет», — наверняка читатели прежних наших статей об успехах и проблемах микропроцессорных производств уяснили уже суть этого весьма продуктивного инженерного подхода. Действительно, прямое воспроизведение базовых элементов универсальной полупроводниковой логики вроде штрихов Шеффера с применением фотонных излучателей и преобразователей — дело на данный момент малопродуктивное (хотя работы и по этому направлению ведутся).
Куда остроумнее следующая логическая цепочка: актуальные ИИ-задачи сводятся к операциям над матрицами; операции над матрицами изучает линейная алгебра; на фотонных устройствах без труда можно строить линейные контуры — не значит ли всё это, что как раз фотоника, а не классическая микроэлектроника в полупроводниковом её изводе оптимальна для ускорения прогресса в области искусственного интеллекта? И в самом деле, такая сплошь и рядом применяемая в (глубоком) машинном обучении операция, как перемножение матриц, может быть произведена гибридным фотонным устройством — с минимальным привлечением самой простой полупроводниковой электроники — куда эффективнее, чем классической вычислительной системой на чисто кремниевой основе.
Сурс:

Почему Маск использует сгенерированные ИИ картинки вместо своих фото?

'-.Л			V 1
u ■ у Ш			' \,элон маск,ИИ,твиттер,интернет
,элон маск,ИИ,твиттер,интернет

Превратил Дукалиса в мемы с помощью ИИ

Отличный комментарий!

Мемы как то... добрее стали
Чувак выяснил что ChatGPT не умеет генерировать полный бокал.

Отличный комментарий!

Нейросеть, воспитанная барменами. Скажи спасибо что льда не накидала

Palworld - AI in video games. Baldur's Gate 3 без ИИ.
Wiki

Отличный комментарий!

Что с лицом, Тодд Говард?
Steam charts
^ SINK* J* Comptr* wHTi «torm
$£	663,934	855,706	855,706
players right now
24-nour p«ttk
«il'Ume peak 7 hour» ogo,Приколы для даунов,разное,Palworld,ИИ,В свете последних событий,ИИ в играх,ИИ в Видеоиграх,Baldur's Gate 3,Балдур Гейт 3,Baldur's Gate,Игры

Разработчики ИИ стали переходить на компактные ИИ-модели — они дешевле и экономичнее

Технологические гиганты и стартапы переходят на более компактные и эффективные модели искусственного интеллекта, стремясь сократить расходы и повысить производительность. Эти модели, в отличие от своих «старших братьев», таких как GPT-4, могут обучаться на меньшем объёме данных и специализируются на решении конкретных задач.
Microsoft, Google, Apple и стартапы, такие как Mistral, Anthropic и Cohere, всё чаще обращаются к малым и средним языковым моделям искусственного интеллекта. В отличие от больших моделей (LLM), таких как GPT-4 от OpenAI, которые используют более одного триллиона параметров и их разработка оценивается далеко за 100 миллионов долларов, компактные модели обучаются на более узких наборах данных и могут стоить менее 10 миллионов долларов, при этом используя менее 10 миллиардов параметров.
Компания Microsoft, один из лидеров в области ИИ, представила семейство небольших моделей под названием Phi. По словам генерального директора компании Сатьи Наделлы (Satya Nadella), эти модели в 100 раз меньше бесплатной версии ChatGPT, но при этом справляются со многими задачами почти так же эффективно. Юсуф Мехди (Yusuf Mehdi), коммерческий директор Microsoft, отметил, что компания быстро осознала, что эксплуатация крупных моделей ИИ обходится дороже, чем предполагалось изначально, что побудило Microsoft искать более экономичные решения.
Другие технологические гиганты также не остались в стороне. Google, Apple, а также Mistral, Anthropic и Cohere выпустили свои версии малых и средних моделей. Apple, в частности, планирует использовать такие модели для запуска ИИ локально, непосредственно на смартфонах, что должно повысить скорость работы и безопасность. При этом потребление ресурсов на смартфонах будет минимальным.
Эксперты отмечают, что для многих задач, таких как обобщение документов или создание изображений, большие модели вообще могут оказаться избыточными. Илья Полосухин, один из авторов основополагающей статьи Google в 2017 году, касающейся искусственного интеллекта, образно сравнил использование больших моделей для простых задач с поездкой в магазин за продуктами на танке. «Для вычисления 2 + 2 не должны требоваться квадриллионы операций», — подчеркнул он.
Компании и потребители также ищут способы снизить затраты на эксплуатацию генеративных технологий ИИ. По словам Йоава Шохама (Yoav Shoham), соучредителя ИИ-компании AI21 Labs из Тель-Авива, небольшие модели могут отвечать на вопросы, если перевести всё в деньги, всего за одну шестую стоимости больших языковых моделей.
Интересно, что ключевым преимуществом малых моделей является возможность их тонкой настройки под конкретные задачи и наборы данных. Это позволяет им эффективно работать в специализированных областях при меньших затратах, например, только в юридической отрасли.
Однако эксперты отмечают, что компании не собираются полностью отказываться от LLM. Например, Apple объявила об интеграции ChatGPT в Siri для выполнения сложных задач, а Microsoft планирует использовать последнюю модель OpenAI в новой версии Windows. А такие компании как Experian из Ирландии и Salesforce из США, уже перешли на использование компактных моделей ИИ для чат-ботов и обнаружили, что они обеспечивают такую же производительность, как и большие модели, но при значительно меньших затратах и с меньшими задержками обработки данных.
Переход к малым моделям происходит на фоне замедления прогресса в области больших публично доступных моделей искусственного интеллекта. Эксперты связывают это с нехваткой высококачественных новых данных для обучения, и в целом, указывают на новый и важный этап эволюции индустрии.
Источник:
Теперь не выходит сгенерировать кошку без хвоста.
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме Ии (+1000 постов - Ии)