Результаты поиска потегуИИ

Дополнительные фильтры
Теги:
ИИновый тег
Автор поста
Рейтинг поста:
-∞050100200300400+
Найдено: 548
Сортировка:
В Китае начали использовать нейросеть, чтобы мешать козам совершать инцест
На козьей ферме в Шанхае разработали технологию распознавания лиц для коз, чтобы они не спаривались со своими родственниками.
Идентификация показывает, какие козы являются родственниками. Если они попытаются совершить инцест, то сотрудникам приходит уведомление об этом, и те побегут разнимать коз. Это должно привести к меньшему количеству врождённых дефектов у потомства.
источник

Отличный комментарий!

Тащите это говно Ридли Скотту
Al is going to take over the world
Al:
Same or different person?
s/	<S>	©
Same
Different
Not sure,ИИ,без перевода,паста,нейросеть,лицо,Буквы на белом фоне

Отличный комментарий!

Нейросеть научилась обнаруживать замаскированных гуков.
Раз уж реактор любит баловаться с машинным обучением, то вот вам программа переводящая текст в голос актеров из компьютерных игр. Все еще робовойсит, но некоторые  тексты читает нормально.
пример генератора на голосе Тодда
видео про апдейт 2.0, позволяющее понять как работает программа
Сбербанк представил свою нейросеть, которая по текстовому запросу изготавливает изображения.
Недолго думая, решил узнать, как она видеть главного по банку, по запросу:
Герман Греф в офисе Сбербанка
получил картину, в принципе так я его себе и представлял.

Желающие могут сами попробовать по ссылке https://rudalle.ru/

«Сбер представил нейросеть, которая создаёт изображения по описанию на русском языке»

Отличный комментарий!

Так вот какой ты

Google создает «настоящий» искусственный интеллект

Многозадачность для нейронных сетей

Google занимается разработкой проекта, связанного с искусственным интеллектом, в рамках которого будут созданы нейросети «следующего поколения», способные запоминать «тысячи и миллионы различных задач». Проект получил название Pathways.
На сегодняшний день нейросети тренируют, как правило, на выполнение какой-то одной задачи. Например, если нейросеть используется для исправления ошибок в написании слов, то, если ее перетренировать на поиск грамматических ошибок, она забудет, как исправлять орфографические.
«Примерно так сегодня тренируются большая часть моделей машинного обучения. Вместо того, чтобы расширять существующие модели для обучения новым задачам, мы тренируем новые модели с нуля — для выполнения одной-единственной задачи, — написал в блоге компании ее вице-президент Джефф Дин (Jeff Dean). — Как следствие, мы вырабатываем тысячи моделей для тысяч индивидуальных задач. В результате обучение новой задаче не только занимает больше времени, но и требует больше данных...».
В Google указывают, что архитектура Pathways призвана изменить это: нейросети вполне можно натаскивать на выполнение множества разных задач, считают в компании.
Идея состоит в том, чтобы обучать будущие системы ИИ сразу множеству навыков, которые та могла бы использовать и комбинировать для того, чтобы самостоятельно обучаться выполнению новых задач.
«Мы хотели бы иметь возможность тренировать модель так, чтобы она могла не только выполнять сразу несколько различных задач, но также использовать и комбинировать уже выработанные навыки для обучения новым задачам — быстрее и эффективнее, — написал Дин. — В частности, то, что модель узнает, обучаясь одной задаче, например, то, как по авиационным фотоснимкам выявлять возвышенности ландшафта, может помочь выполнению другой задачи — прогнозированию того, как по данной местности будут протекать потоки воды. Мы хотим, чтобы модель имела различные возможности, которые можно было бы использовать по мере надобности, и которые можно было бы комбинировать для выполнения новых, более сложных задач. Это небольшой шаг к тому, как мозг млекопитающих обобщает разные задачи».
,наука и техника,it,Искусственный Интеллект

Еще одной проблемой, с которой Pathway должен будет помочь справиться, заключается в том, что сегодняшние модели машинного обучения предполагают задействование всех нейроузлов сети, вне зависимости от того, насколько простой или сложной является задача. В Google полагают, что можно добиться «разреженной» активации, то есть, направлять новые задачи лишь на отдельные массивы нейроузлов. Такой подход еще и куда менее энергозатратен.
Концепция разреженной нейросети уже применена в проектах Google Switch Transformer, модели для понимания естественного языка, и Gshard. Они потребляют всего лишь одну десятую энергии, которую пришлось бы расходовать на более традиционную нейросеть, где активируются все нейроузлы разом.
В будущем Google ожидает, что Pathways приведет к созданию нейросетей, способных выполнять миллионы различных задач, проводить обобщения между ними, комбинировать их по мере надобности, понимать различные типы данных и работать с ними более эффективно, чем любая сегодняшняя сеть. Целью проекта является переход «от эры однозадачных моделей, которые просто распознают паттерны, к многозадачным интеллектуальным системам, которые отражают более глубинное понимание нашего мира и могут адаптироваться к новым потребностям».
«Заявленная цель выглядит исключительно амбициозной, — полагает Георгий Лагода, заместитель генерального директора группы компаний “Программный продукт”. — Но у Google вполне могут быть ресурсы для ее реализации. Современные подходы к созданию и обучению нейросетей действительно стоило бы оптимизировать, но это потребует радикального пересмотра существующих архитектур».
сурс: https://www.cnews.ru/news/top/2021-11-02_google_sozdaet_nastoyashchij

В России выделили более 1,5 млрд рублей на нейросеть для поиска «опасных» школьников по их сочинениям

Российские издания «Ведомости» и «РБК» ознакомились с пояснительной запиской к проекту федерального бюджета до 2024 года, утверждённого правительством 21 сентября. В федеральном проекте «Социальная активность» издания обнаружили статью расходов на создание программы для анализа сочинений учащихся, направленного на поиск склонных к опасному и деструктивному поведению школьников. 
Согласно плану проекта, в 2022 и 2023 годах на создание программы выделять по 551,1 млн рублей и 555,7 млн рублей в 2024 году. «Ведомости» и «РБК» направили запросы в Минпросвещения, ответственного за реализацию проекта, с просьбой предоставить подробности о программе. Ведомство переадресовало запрос в Росмолодежь, но издания на текущий момент не получили ответы. Детали создания программы и сроки внедрения в учебные заведения неизвестны.
Эксперты «РБК» предположили, что система будет работать на базе машинного обучения. В качестве базы разработчики могут взять за основу тексты людей с психическими расстройствами или социальными отклонениями. Неизвестно, на какой текст будет опираться нейросеть. Она может переводить рукописный текст в машинный, анализировать только рукописный, учитывая почерк, или школьникам потребуется набирать сочинения сразу в электронном виде. В маркировке соответствующих паттернов, по словам экспертов, должны участвовать компетентные специалисты-психологи.
Приглашённые эксперты изданий также подняли вопрос о защите персональных данных. По их словам, для подобных манипуляций с оценкой психического состояния детей необходимо согласие родителей или опекунов. Сами тексты должны быть обезличены. Вместо указания данных ребёнка необходимо указывать индивидуальный идентификатор, который способны дешифровать только доверенная служба.
Также появляется проблема с реакцией учителей. Подобная программа не может ставить диагноз, но результаты анализа могут повлиять на отношения с учеником и родителями. На основании только этих результатов учителя могут настаивать на переводе в специальные группы или постановке на учёт в психдиспансер.
По мнению одного из экспертов, сама база должна быть создана на основании государственной информационной системы, аттестованной в ФСБ и ФСТЭК. К тому же, специалисты задались вопросом о ключевых паттернах, заложенных в программу. Например, если в сочинении ребёнок напишет об оппозиционных настроениях его родителей, как это будет расценивать нейросеть.
https://habr.com/ru/news/t/579856/

Доклад ООН призывает к регулированию потенциально опасного ИИ

ООН призывает к мораторию на системы искусственного интеллекта, «которые представляют серьезную угрозу для прав человека», пока не будут проведены исследования и регулирование. Сегодня он опубликовал отчет после опасений, что страны и предприятия внедряют ИИ без должной осмотрительности. Верховный комиссар по правам человека Мишель Бачелет сказала, что ИИ может быть «силой добра», но подчеркнула, что он все еще может иметь глубоко негативный, «даже катастрофический» эффект, если использовать его без регулирования.
В докладе анализируются способы, которыми ИИ может влиять на права человека, включая неприкосновенность частной жизни, здоровье и образование, а также свободу передвижения, выражения мнений и собраний.
«Искусственный интеллект теперь проникает почти в каждый уголок нашей физической и умственной жизни и даже эмоциональных состояний», — пишет Бачелет. «Системы ИИ используются, чтобы определить, кто получает государственные услуги, решить, у кого есть шанс быть нанятым на работу, и, конечно, они влияют на то, какую информацию люди видят и могут делиться в Интернете».
В докладе Бачелет говорится, что из-за его быстрого роста выяснение того, как ИИ собирает, хранит и использует данные, является «одним из самых неотложных вопросов прав человека, с которыми мы сталкиваемся».
«Риск дискриминации, связанный с решениями, основанными на ИИ — решениями, которые могут изменить, определить или нанести ущерб человеческим жизням — слишком реален», — говорится в докладе. «Вот почему необходима систематическая оценка и мониторинг воздействия систем ИИ для выявления и смягчения рисков для прав человека».
ООН также призывает к значительно большей прозрачности со стороны компаний и стран, которые разрабатывают и используют системы ИИ. Важно отметить, что ООН не призывает к полному запрету - никто не испугался их последнего просмотра «Терминатора» - просто регулирование и большая прозрачность.
Бачелет говорит:
«Мы не можем позволить себе продолжать играть в догонялки в отношении ИИ, позволяя его использовать с ограниченными или вообще без границ или надзора, и имея дело с почти неизбежными последствиями для прав человека постфактум. Способность ИИ служить людям неоспорима, но также и способность ИИ подпитывать нарушения прав человека в огромных масштабах практически без видимости. Сейчас необходимы действия, чтобы поставить барьеры для защиты прав человека на использование ИИ на благо всех нас».
Ознакомиться с пресс-релизом и полным текстом доклада можно на сайте ООН.
щ |ашгт
ты же просто робот, имитация жизни. Разве может робот наслаждаться жизнью и жить в своё удовольствие?
а ты прям дохуя наслаждаешься?

*,ИИ,Уилл Смит,Актеры и Актрисы,Знаменитости,я робот

Отличный комментарий!

Вполне. Не надо нагружать себя лишними мыслями, а находить счастье в мелочах. Даже просматривая этот мем я вполне наслаждаюсь жизнью.
После 4-х дневного поноса я понял что для счастья достаточно чтобы не было плохо... =(
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме (+548 постов - )