Результаты поиска по запросу "Ии"

«Чужих детей не бывает»: Союз женщин попросил запретить ДНК-тесты в целях оспаривания отцовства

В России хотят запретить предполагаемым отцам проверять генетическое родство с младенцем с помощью теста ДНК. Мера направлена на предотвращение распада молодых семей и борьбу с ростом числа разводов в России.
Соответствующее обращение Союз женщин России направил в Минздрав. В письме предлагается обязать частные и государственные медицинские организации отказывать отцам в проведении ДНК-тестов на подтверждение родства с ребёнком, а также запретить судам принимать такие справки в качестве доказательства.
«Предполагаемые новые правила не должны затронуть матерей, поскольку всегда есть риск, что в роддоме могут всё перепутать. Инициатива вынесена на общественное обсуждение, идёт сбор мнений», – прокомментировал законопроект источник в Минздраве.
Сейчас порядка 30% мужчин в России растят не своих детей. Как считают в Союзе женщин, эта цифра могла бы быть выше, если бы россияне не забывали о «традиционных, сакральных ценностях» и не отказывались от чужих детей или хотя бы от выплаты алиментов за них.
«Запрет в первую очередь должен защитить детей и их матерей – они не виноваты в том, что в законодательстве существуют лазейки, позволяющие уйти от алиментов или отцовских обязанностей через ДНК-тесты. Наша задача – эти лазейки устранить. Чужих детей, как известно, не бывает, а отец – тот, кто воспитал», – пояснили в Союзе женщин.

Отличный комментарий!

Хоть и панорама, но звучит так, будто со знакомыми женщинами поболтал
Распознаю товар сам
КОМПЬЮТЕРНОЕ ЗРЕНИЕ
'о,	488кг ®
и	АВОКАДО
1	ПОМЕЛО МИНИ
т ш	ЯБЛОКИ ФАСОВАННЫЕ ЦЕНА
Щ	КОНФЕТЫ ! КНЯЖЕСККчКОНТИ) 1
т	БЕЛОРУССКИЙ ФАСОВАННЫЙ (ЦЕНА 1 ЗА КГ)
ПОИСК ТОВАРА ВРУЧНУЮ... -,Искусственный Интеллект,касса,it-юмор,geek,Прикольные гаджеты. Научный, инженерный и

Отличный комментарий!

Ну правильно, это весы для фруктов, Фейри у него в базе нет.

В Индии дипфейки и другие ИИ-технологии используют в предвыборной агитации. Эксперты опасаются, что совсем скоро эти методы изменят выборы в разных странах мира

Выборы в нижнюю палату парламента Индии, начавшиеся 19 апреля, могут стать крупнейшими в мире: потенциальное количество избирателей составляет 970 миллионов человек, то есть около 12% от всего населения планеты. Голосование проходит в семь этапов и завершится 1 июня, а результаты должны объявить 4 июня. Критики действующего главы правительства Нарендры Моди утверждают, что победа его партии «Бхаратия джаната парти» на третьих выборах подряд может привести к кризису индийской демократии. Оппозиционеры обвиняют премьер-министра в разжигании розни и усилении репрессий. Напряженная обстановка на выборах связана еще и с тем, что конкурирующие партии впервые активно используют для агитации и пропаганды искусственный интеллект. «Медуза» рассказывает, почему эксперты считают дипфейки и другие ИИ-технологии угрозой для электоральных процедур не только в Индии, но и во всем мире.

ИИ-технологии уже использовали для агитации на предыдущих выборах в Индии. Но не в таких масштабах, как сейчас

«Бхаратия джаната парти» (БДП) впервые использовала ИИ-инструменты, чтобы генерировать персонифицированные обращения к избирателям еще в 2014 году. По словам исследователя из Османского университета в Индии Патарлапати Нагараджу, с тех пор технологии прочно закрепились в агитационном арсенале индийских партий и стали ключевым элементом пропагандистского дискурса. Дипфейк — цифровая подмена личности — впервые стал политическим инструментом на выборах в законодательное собрание Дели в 2020-м. Тогда в сети появились два сгенерированных ИИ видео с руководителем местного отделения БДП Маноджем Тивари. В одном ролике политик обращался к потенциальным избирателям на английском языке, в другом — на языке харианви, распространенном в Дели и некоторых других регионах. 
Представители БДП обосновали использование ИИ тем, что они не дискредитировали конкурентов, а лишь пытались донести послание своего лидера до как можно более обширной аудитории. Однако сам факт появления таких роликов вызвал в Индии много споров — многие журналисты и политики предположили, что в будущем с помощью дипфейков будут распространять ложную информацию и манипулировать избирателями. 
Сомнения в допустимости использования ИИ в агитации усилились после парламентских выборов 2019 года, в ходе которых разные стороны активно пользовались социальными сетями для распространения фейков о конкурентах. Группа исследователей из индийского отделения Microsoft Research тогда пришла к выводу, что кампании почти всех крупных партий «включали в себя элементы онлайн-дезинформации, ложь о своих оппонентах и пропаганду». 
Сотрудники исследовательского центра Digital Forensic Research Lab выявили наплыв ботов, которые пытались продвигать хэштеги и «манипулировать трафиком» в пользу разных конкурентов в твиттере в заключительные недели перед выборами 2019 года. Наплыв ботов наблюдался и в фейсбуке, где две крупнейшие партии — БДП и Индийский национальный конгресс — предположительно распространяли отредактированные фотографии и фейковые видео. Агитационная кампания также проводилась в вотсапе — там с помощью ботов массово пересылали сообщения с призывами голосовать за определенных кандидатов. 
Но в 2024 году манипуляция информацией и производство фейков в индийской политике вышли на новый уровень — благодаря развитию Генеративного Искусственного Интеллекта, который позволяет создавать тексты, изображения и другие медиаданные в соответствии с подсказками и критериями, заданными пользователем.
«Генеративный ИИ сам по себе не представляет больше опасности, чем боты, — объясняет специалистка в области вычислительных социальных наук Кэтлин Карли. — Однако теперь мы имеем дело и с ботами, и с генеративным ИИ». 
По словам Карли, генеративный ИИ упрощает процесс программирования ботов, позволяет им охватить бо́льшую аудиторию и дольше избегать блокировки. А Пратик Вагре, исполнительный директор базирующегося в Индии Фонда за свободу интернета, который занимается защитой цифровых прав, предположил, что поскольку ИИ-технологии никто не регулирует, выборы этого года «превратятся в Дикий Запад». 

Персонажами предвыборных дипфейков становятся даже звезды Болливуда. А еще политики пытаются с помощью ИИ сгенерировать компромат на оппонентов 

В начале марта 2024 года в инстаграме распространилось изображение премьер-министра Индии Нарендры Моди, стилизованное под Бхишму — одного из главных героев индийского эпоса «Махабхарата», земное воплощение бога неба Дьяуса. Картинка, сгенерированная с помощью ИИ, предположительно должна была символизировать роль, которую отводят Моди его сторонники, — выдающегося воина и защитника своей страны от внешних угроз. Благодаря продвижению в соцсети изображение за два дня охватило аудиторию примерно в 35 тысяч пользователей. 
По данным Meta, доступ к которым получило издание Al Jazeera, в период с 27 февраля по 21 марта аккаунт Hokage Modi Sama, который занимается агитацией за Моди в инстаграме, распространил более 50 публикаций, изображающих главу правительства в божеством, военным или религиозным героем. «С помощью этих изображений [сторонники Моди] пытаются сформировать образ мудреца и воина — неутомимого, непобедимого и безупречного лидера, достойного нашей безусловной преданности, — объясняет исследователь в области политических коммуникаций из Оксфорда Амог Дар Шарма. — Это новейший метод в рамках долгосрочной стратегии БДП по формированию культа Моди как мудрого и проницательного правителя».
,политота,Приколы про политику и политиков,Индия,страны,Искусственный Интеллект,Deepfake,двойные стандарты,длиннопост
По данным Al Jazeera, технологиями ИИ для агитации воспользовался и один из главных конкурентов Моди, член Индийского национального конгресса Рахул Ганди. Его сторонники распространили в инстаграме и фейсбуке изображения политика, якобы позирующего с детьми и фермерами. Последние представляют основной оппозиционный электорат — в прошлом они часто протестовали против рыночных реформ Моди. Подпись под сгенерированным с помощью ИИ изображением сообщала о том, что «Рахул Ганди сопереживает фермерам, обещает им безоговорочную поддержку и готовность внимательно отнестись к проблемам каждого». 
Сами изображения премьер-министра в образе народного героя или предвыборное творчество сторонников его оппонента вроде бы нельзя назвать манипуляцией фактами, однако эксперты опасаются, что другие предвыборные материалы, сгенерированные с помощью аналогичных технологий, можно использовать для распространения ложной информации и обмана избирателей. 
Другой пример того, как ИИ применяют в предвыборной агитации в Индии, — дипфейки. Один из самых популярных персонажей в подобных роликах — тот же Моди: накануне начала голосования в вотсапе распространились видео с цифровым аватаром премьера, который обращается напрямую к избирателю по имени и напоминает о том, как власти улучшили их жизнь за последние годы. Появляются похожие ролики и с другими членами правящей партии. По данным The New York Times, видео-послания автоматически переводятся на любой из десятков распространенных в Индии языков. По тому же принципу действуют и чат-боты, которые обзванивают избирателей и голосами политических лидеров просят их о поддержке на выборах. 
Девендра Сингх Джадун, ведущий индийский специалист в области дипфейков, который специализируется на создании реклам и сцен для болливудских фильмов, рассказал, что накануне выборов к нему обратились сотни политиков. По словам Джадуна, больше половины из них просили о чем-то «неэтичном» — например, «создать» телефонные разговоры, в которых конкуренты якобы признаются в нарушениях закона и взятках. Другие хотели добавить лица оппонентов на порнографические изображения. Некоторые попросили Джадуна специально сделать дипфейк низкого качества с участием кандидата от их партии, чтобы в случае появления поддельного компромата его было проще разоблачить. Джадун объяснил, что отказывается от такой работы только из личных принципов. Он добавил, что никаких технических способов остановить поток фейковых роликов, изображений и аудиозаписей пока не существует. 
По словам Джадуна, из 200 запросов, которые он получил с начала 2024 года, он и его команда из девяти человек взялись лишь за 14. Однако далеко не все специалисты, умеющие работать с ИИ, проявляют такую принципиальность. В самый разгар предвыборной кампании в Индии распространился дипфейк-ролик со звездой Болливуда Аамиром Ханом. На видео цифровой двойник Хана напомнил о несбывшемся обещании БДП десятилетней давности — сделать так, что на банковском счету каждого индийца окажется полтора миллиона рупий (или 18 тысяч американских долларов). В конце дипфейк призывает соотечественников голосовать за оппозиционеров из Индийского национального конгресса. На следующий день после появления ролика в интернете Хан выступил с опровержением и назвал видео «абсолютной ложью». 
По мнению Никхила Паквы, редактора интернет-издания MediaNama, которое специализируется на анализе цифровых медиа, в Индии такие предвыборные манипуляции могут оказаться действенными из-за глубоко укоренившейся культуры почитания знаменитостей. «Индия — страна, где люди любят фотографироваться с двойниками звезд, — объяснил Паква. — Если им, например, позвонит премьер-министр и будет говорить так, будто он знает, как их зовут, где они живут и с какими проблемами сталкиваются, они почти наверняка придут в восторг». 
«В этом году я вижу больше политических дипфейков, чем в предыдущем, — рассказал профессор компьютерных наук из Калифорнийского университета в Беркли Хани Фарид. — Они стали более сложными и реалистичными». С такой оценкой согласен и специалист по ИИ Девендра Сингх Джадун. По его словам, сам контент стал более качественным, а время на его производство многократно сократилось: если раньше даже с мощными графическими процессорами на создание правдоподобного дипфейка уходило от восьми до десяти дней, теперь для этого нужно всего несколько минут. 

Партии оправдывают использование ИИ экономией и удобством, но конкурентов обвиняют в манипуляции и фейках. Взять под контроль поток сгенерированных изображений и видео пока не получается

Рассуждая о том, как ИИ может повлиять на ход выборов и отношение избирателей, исследователь политических коммуникаций из Оксфорда Амог Дар Шарма отмечает, что партии используют дипфейки не только для дискредитации оппонентов, но и чтобы продвигать выгодные политические нарративы. «ИИ необязательно обманывает избирателей и заставляет их поверить в то, что не соответствует реальному положению дел, — объясняет Шарма. — ИИ еще и позволяет производить более изобретательный контент с множеством культурных отсылок. Это приводит к появлению зрелищной пропаганды, которой с большей долей вероятности будут делиться, а это в свою очередь помогает ее распространять». 
Индийские политики обвиняют оппонентов в попытках добиться преимущества с помощью ИИ, но собственные партии оправдывают. Они утверждают, что применяют подобные технологии просто потому, что это быстро и удобно, а вовсе не из желания обмануть избирателей или оклеветать противников. 
По словам индийского политолога и специалиста в области коммуникаций Сагара Вишноя, «одно из явных преимуществ внедрения ИИ в предвыборные кампании — в том, что он позволяет заметно сократить расходы, сэкономить время и повысить эффективность». Раньше партии полагались на колл-центры с множеством сотрудников и волонтеров, чтобы взаимодействовать с электоратом, — ИИ позволил сократить расходы в этой сфере в несколько десятков раз и лучше структурировать общение с избирателями. Например, благодаря технологиям обзвона опросы стали проводится быстрее — теперь за день партии получают объем данных, на сбор которые прежде уходил не один месяц. 
Один из сторонников использования ИИ в предвыборной агитации, 33-летний член БДП Шахти Сингх Ратор утверждает, что он никогда не смог бы рассказать о предвыборной программе Моди такому количеству соотечественников, если бы не создал цифрового двойника. По словам Ратора, «ИИ — это прекрасно, потому что он позволяет двигаться вперед». 
Однако, уверены сторонники ограничения ИИ, потенциальные опасности от использования дипфейков и других подобных технологий перевешивают все удобства. Эксперты обращают внимание на случаи, когда искусственный интеллект мог обеспечить одной стороне несправедливое преимущество: например, во время выборов в законодательное собрание индийского штата Телингана в 2023 году распространилось видео, на котором главный министр штата К. Чандрашекар Рао и другие представители БДП призывали голосовать за своих конкурентов из Конгресса. 
Негативные последствия использования ИИ в политической борьбе наблюдаются и в некоторых других государствах — например, в Бангладеше представительница оппозиции Румин Фархана в прошлом году стала жертвой кампании по дискредитации: неизвестные распространили ее фейковые снимки в купальнике, которые возмутили многих консервативно настроенных избирателей. В Молдове противники главы государства Майи Санду сгенерировали дипфейк-видео, на которых президент якобы просит граждан сплотиться вокруг Партии социалистов Молдовы, у которой тесные связи с «Единой Россией». А в ЮАР в преддверии майских выборов опубликовали отредактированное видео, на котором рэпер Эминем призывает поддержать оппозиционную партию. 
Аналитики Microsoft в своем отчете об использовании ИИ-технологий рассказали, что за многими политическими дипфейками в разных странах стоят компании, связанные с китайскими властями. Предположительно, таким образом режим Си Цзиньпина пытается продвигать «своих» кандидатов. По данным Microsoft, в 2024 году Китай может заниматься распространением предвыборных фейков в Индии, Южной Корее и США. 
В конце марта Нарендра Моди предложил помечать контент, сгенерированный ИИ, «чтобы не запутывать избирателей». Однако пока в Индии, как и в большинстве других стран, не существует правовых норм, которые позволяли бы эффективно ограничивать поток изображений и видео, созданных искусственным интеллектом. Как пишет The Washington Post, «правоохранительные органы редко успевают за фейками, которые могут стремительно распространяться в соцсетях и групповых чатах». Индийский политический стратег Анкит Лал согласен, что в Индии «не существует эффективных способов отслеживать контент, произведенный с помощью ИИ». Из-за этого помешать предвыборным манипуляциям практически невозможно. А решать, насколько этично использовать ИИ в политической агитации, в каждом случае приходится не регулирующим инстанциям, а отдельным людям.
Исследователи создали первую секс-игрушку с ИИ, которая позволяет мастурбировать силой мысли
Для этого пользователь должен быть подключён к гарнитуре ЭЭГ, которая измеряет спонтанную электрическую активность мозга, и передаёт сигналы по Wi-Fi в секс-игрушку.
Таким образом можно увеличивать и уменьшать интенсивность. Также устройство определяет, когда пользователь близок к оргазму.
Создатели говорят, что аппарат индивидуально подстраивается под работу мозга каждого человека.

«Баловство одно»: глава Росмолодёжи призвал заблокировать TikTok в России

Председатель Федерального агентства по делам молодёжи Виталий Курдюмов призвал запретить в России социальную сеть TikTok, поскольку она не выполняет никакой полезной функции в воспитании подрастающего поколения. Молодым людям следует «не сидеть в компьютерах, а выходить гонять мяч или на турниках заниматься», уверен чиновник.
Курдюмов вспомнил, что в советские годы никаких социальных сетей не было, но люди жили дружнее и интереснее.
«Молодёжи сейчас надо заниматься спортом, общаться по-человечески, а не увлекаться этой виртуальной реальностью, – сказал он. – Тиктак этот (так в оригинале – прим.) – зачем он нужен? Кому он нужен? Никакой воспитательной функции там нет, баловство одно. Надо его запретить, я считаю».
Руководитель ведомства добавил, что подобные «безделушки» пришли с Запада, где «молодёжь деградирует и не трудится руками», но России надо равняться на более прогрессивные страны, такие как Китай.

Опубликована база пользователей «ВКонтакте», которые последние 5 лет смотрели видео 18+

В ночь на 16 октября на одном из популярных форумов
хакеров была опубликована база данных пользователей социальной сети
«ВКонтакте», которые в 2019-2024 гг. смотрели видео с ограниченным
доступом, преимущественно порнографического характера.
Как
утверждают злоумышленники, база из 500 миллионов клиентских записей была
создана самими сотрудниками социальной сети в мае 2024 года по
распоряжению одного из федеральных министерств. Она включает поисковые
запросы, список просмотренных видео, телефон пользователя и его
IP-адреса.
«Мы всего лишь хотим показать, как работает Большой брат — посмотрел
порно в ВК, теперь тебя взяли на карандаш», – написал хакер.  
Согласно
опубликованным материалам, за последние 5 лет около 50 миллионов
пользователей «ВКонтакте» хотя бы один раз смотрели порноролики в
социальной сети, а 10 млн делают это ежедневно.

Отличный комментарий!

Кошмар ситуации в том, что даже не возникло мысли что это панорама...

СМИ будут наказывать за использование «Е» вместо «Ё»

В Государственную думу внесли законопроект «О защите национальных культурных ценностей России». Документ регламентирует меры ответственности в случае надругательства над важнейшими символами государства. Прежде всего, речь идёт об умышленном написании и произношении неправильных букв в словах на русском языке, отличающемся от орфографического стандарта.  
Особое внимание парламентарии уделили написанию и правильному произношению буквы «Ё» и недопустимости её замены на «Е» не только в документах и законодательных актах, но и в публикациях, научных пособиях и инструкциях. 
,новости,иа панорама
«Защита буквы «Ё» – самой главной буквы русского алфавита, той культурной ценности, которая отличает русский язык от других языков, должна стать приоритетом нашей государственной политики. Нужно вернуть народу его национальное достояние», – заявила автор инициативы Елена Ёлкина.
Согласно документу, все СМИ в текстах обязаны в соответствии с нормами русского языка употреблять «Ё». В случае нарушения закона Роскомнадзор имеет право вынести им штраф, а Федеральное агентство по печати и массовым коммуникациям – лишить недобросовестные СМИ лицензии. Норма будет распространяться и на устную речь в телеэфире и аудиовизуальную продукцию.

Отличный комментарий!

пиздеж
пиздЁж.

The Times: айсберг, погубивший «Титаник», приплыл из России

,the times,айсберг,Титаник,иа панорама
Авторитетныйбританский таблоид The Times опубликовал статью о настоящихпричинах гибели крупнейшего в истории судостроения гражданского океанскоголайнера «Титаник». По мнению опрошенных изданием специалистов, айсберг,столкновение с которым привело к затоплению судна, откололся от ледника наНовой Земле в Российской империи.
Экспертам удалось с высокой точностью восстановить маршрут, по которому двигалсязлополучный айсберг. Выяснилось, что течение в той части Атлантического океанатаково, что может приносить туда ледяные глыбы из северных территориальных вод России.Таким образом, даже более 100 лет назад Россия активнейшимобразом вмешивалась во внутренние дела других государств и совершала против них диверсии, в том числе и приведшие к человеческим жертвам.

Отличный комментарий!

Всей империей откалывали

После рассекречивания архивов КГБ стало известно имя советского гражданина, написавшего 3 миллиона доносов

После рассекречивания архивов КГБ был дан ответ на бессмертный вопрос Сергея Довлатова об авторе 3 миллионов доносов, написанных в советский период. Им оказалась безработная пенсионерка из Москвы, которая от скуки следила за жителями соседних домов.
Историки изучили личное дело уроженки Москвы Зинаиды Николаевны Д., которая в 1936-1989 годах активно писала доносы на своих соседей, родственников и знаменитостей. Свой первый донос, по которому были арестованы соседи женщины по коммунальной квартире, Зинаида написала в возрасте 25 лет в 1936 году, однако пик её активности наступил после раннего выхода на пенсию. От скуки она стала следить за жителями своего и соседних домов, для чего изготовила подслушивающие устройства из бумажных стаканчиков и капроновых нитей. Пенсионерка внимательно слушала, о чём говорят советские граждане, и писала об их слово- и мыслепреступлениях в компетентные органы.
Как следует из материалов личного дела, Зинаида Николаевна никогда не была завербована КГБ или другими органами и действовала исключительно по своей инициативе. Иногда её чрезмерная ретивость раздражала правоохранительные органы. Так, сохранилось письмо председателя КГБ Юрия Андропова от 1977 года, в котором он требует «сжигать хотя бы половину доносов от этой сумасшедшей», поскольку ответственный отдел Комитета не справлялся с объёмом работы.
В отдельные годы бдительная пенсионерка собственноручно писала до половины всех анонимок, с которыми приходилось работать КГБ. Тем не менее, уже в 1980 году Андропов лично наградил её ведомственной медалью «За бдительность» и помог с устройством внука в детский сад.
Общее точное число доносов, написанных пенсионеркой, составляет 2 999 984. Она лишь немного не дотянула до заветной цифры в 3 миллиона, но даже уже будучи тяжело больной, она на смертном одре диктовала дочери текст очередной анонимки на соседа, хранящего доллары в вентиляции. Зинаида Николаевна Д. теперь считается самым плодовитым отечественным писателем, потеснив с первого места автора детективов Дарью Донцову.
сурс

Отличный комментарий!

Если бы не число в 3 ляма , я бы не полез чекать тэги.

РАН исключила сразу 96 академиков за атеизм

Ещё в советские годы академия наук оставляла за собой право исключать своих членов за антиобщественные и порочащие высказывания, действия и мнения. Этот же пункт уже в наше время решили задействовать, чтобы избавиться от атеистов и агностиков.
Комментируя решение, заместитель президента РАН, доктор теологических наук протоиерей Амвросий заявил, что «атеист – тот же сатанист». Он добавил, что чистка ещё не завершена – если на первом этапе «вылетели» только те, кто и не скрывал своих аморальных взглядов, то сейчас составляются списки второй очереди, куда войдут «тайные атеисты».
Здесь мы собираем самые интересные картинки, арты, комиксы, мемасики по теме Ии (+1000 постов - Ии)