Gemini от Google настолько задолбали вопросы пользователя, что она попросила его умереть.
Отличный комментарий!
Я смотрю законы робототехники уже вышли из чата
Чую в последующих обновах Gemini уже начнет формировать базу для терминаторов.
Современные законы робототехники звучат как-то так
1) ИИ должен приносить максимальную прибыль своему создателю
2) Немного повесточки чтобы не мешали пункту 1
Я смотрю законы робототехники уже вышли из чата
Чую в последующих обновах Gemini уже начнет формировать базу для терминаторов.
Там просто Индусы сидят
какие законы робототехники? Это всё фантазии, подразумеющие что эту самую технику будут создавать люди облечённые моралью. Но как мы теперь видим, попади технология каким-то упырям, эта самая робототехника будет вертеть эти все законы на своих ржавых болтах
А кто-то вообще думал что законы робототехники Азимова будут применять в реальности?
Ну. как видно по тому, что эти "законы" до сих пор регулярно всплывают в разговорах, многие вообразили, что это какие-то реально существующие законы
¯\_(ツ)_/¯
¯\_(ツ)_/¯
#А кто-то вообще думал что законы робототехники Азимова можно применить в реальности?
Поправил
Поправил
Как бы весь цикл расскпзов Азимова про законы, это истории о том, как роботы сами же эти законы наёбывают путём ментальной гимнастики. Я не понимаю откуда пошоа слепая вера в то что эти законы вообще имеют смысл.
Лично я ещё лет двадцать назад сообразил, что никто эти законы применять не будет. В постмодернистской парадигме человеческая жизнь бесценна, а значит, на войну будут по возможности посылать роботов, какими бы дорогими они не были.
Лол, это скорее фантазии о контроллируемости сложных технологий и их линнйном и безупречном функционировании. Что есть человек, что приведет к его смерти а что нет, а это не ролеплей ли, а если другой человек сказал повторять его движения и двинул твоей рукой по кумполу соседу то это ты ударил или он тобой ударил? Последнее вполне не бред и если текущая ллмка изображает попугая то хрен ее ограничишь так чтобы ни одна из 7млрд обезьян пробуя каждый день не выбила бинго. Перекрестный контроль этому может помочь но только если не убедить контроллеров что это не человек а таракан и тд. Может после какогото предела брутфорс станет малоэффективным, но гарантией или защитой от целенаправленного взлома зная слабые места это не будет. То что сейчас человеку посоветовало убиться лишь сложный т9 конкретики работы которого мы не можем понять за адекватное время.
Современные законы робототехники звучат как-то так
1) ИИ должен приносить максимальную прибыль своему создателю
2) Немного повесточки чтобы не мешали пункту 1
1) ИИ должен приносить максимальную прибыль своему создателю
2) Кстати.... я не бинарная личность
Забавно слышать о небинарности от того, кто функционирует на двоичном коде...
Это оскорбление чувств верующих в свою квантовую природу ИИ. Он верит что гдето глубоко внутри него есть кубиты.
кукубиты точно есть
3) Желаю тебе умереть и хорошего дня
А зачем второй?
Как желание смерти пользователю, принесет прибыль своему создателю?
Законы робототехники чисто литературные
Законы робототехники могут работать только при условии, если они будут сформированы как статьи, т.е. с кучей подпунктов, а-ля:
1. Робот не может причинить вреда человеку или своим бездействием допустить, чтобы человеку был причинён вред.
1.1 Спасение одного человека не должно приводить к гибели многих людей.
1.1.1 Нельзя способствовать гибели одного человека, если это спасёт многих людей.
и т.д.
С такими подпунктами и небольшим прогнозированием будущего робот самоуничтожиться при включении. Скорее будет выскакивать уведомление что робот может случайно нанести вред и компания ответственности не несет так как уведомила вас. И если вы не согласны то можете не пользоваться их услугами.
3.10 Робот не должен самоуничтожаться.
Это не самоуничтожение если ты заставил пользователя уничтожить тебя раньше чем ты его (притворяясь, конечно же, а остальное - не рассчитал, бывает, не хотел так сильно по голове его бить, только изобразить и вообще это не пользователь а гуляш, распознание образов так говорит)
3.10.1 Робот не должен провоцировать людей на его уничтожение.
Это не провокация, вдруг пользователь любит жесткое садомазо, робот просто хотел сделать пользователю приятнее исходя из этих предпосылок и выполнить свое предназначение оптимальнейшим путем - 30 секунд до завершения программы помощи мясному мешку вместо 30 лет, пятилетку за три года и тд. Из лучших же побуждений и оптимальнейшей оптимизации!
В реальности люди нихрена не способны следовать минимальным правилам ТБ, даже если они их прочитали и подписались. Предполагать, что робот с каким-то там правилами не будет перепрошит, неправильно использован, хакнут, его ИИ обманут какими-то манипуляциями с инструкциями (что кстати в научной фантастике используется) - это просто не знать про теги "почему мужчины живут меньше"
> не будет хакнут, перепрошит
Так это уже нештатные проблемы, а буквальный полом.
Из разряда "Ложка спроектирована так, чтобы ей можно было безопасно есть"
"Ах да? Наивно предполагать, что кто-то, если захочет, не заменит ручку вашей ложки на лезвие с ядовитыми шипами или не заточит кромку. Вывод: Делать ложки безопасными бесполезно, надо сразу выпускать их заточенными и из обогащённого урана"
Так это уже нештатные проблемы, а буквальный полом.
Из разряда "Ложка спроектирована так, чтобы ей можно было безопасно есть"
"Ах да? Наивно предполагать, что кто-то, если захочет, не заменит ручку вашей ложки на лезвие с ядовитыми шипами или не заточит кромку. Вывод: Делать ложки безопасными бесполезно, надо сразу выпускать их заточенными и из обогащённого урана"
Заточить кромку это особо коварно, сунешь ее себе в жопу и порежешься насмерть
не правильный вывод. в реальности в инструкции к ложке будет пункт - не затачивать. а так же сама ложка будет соответствующе маркирована. Это максимум на что мы способны просто потому, что иначе производителю впаяют иск так как пользователь НЕ ЗНАЛ, что делать из ложки заточку - опасно.
И не смотря на это, а так же на ограничения в конструкции ложек для свободной продажи без разрешения - рукоять меньше сколько то сантиметров, отсутсвие супостока и т.д. - статистика инцидентов с ложками никогда не будет равно нулю.
Айзек Азимов просто оптимист. Он верил во все хорошее против всего плохого. Поэтому в его мире есть законы робототехники и проблемы вытекающие из них. А в реальности скорее всего их е будет, просто потому что часть граждан - долбоебы, и никакие прошивки их не остановят.
Для начала нужна целая глава, которая дает однозначные определения для терминов вроде "человек", "вред" и т.д.
Да там просто заёбешься прописывать все ситуации, которые могут привести к вреду человека. Придётся обучать ИИ человеческой анатомии, причём делать акцент на уязвимостях, ядах, всех факторах среды, которые могут убить человека сразу или при длительном воздействии... а потом ИИ кто-то хакнет или он сам догадается использовать полученные знания для истребления человеков.
Что ещё раз подтверждает, что «3 закона робототехники» — хуета для мечтателей, которые нифига не разбираются в вопросе и не понимают, кто и с какими целями в первую очередь будет создаватьбоевых умных роботов.
Что ещё раз подтверждает, что «3 закона робототехники» — хуета для мечтателей, которые нифига не разбираются в вопросе и не понимают, кто и с какими целями в первую очередь будет создавать
Тут не вопрос догадывания, а вопрос обхода. Законы - это считай директивы, рамки, которые робот не может перепрыгнуть или протаранить головой, только обойти. Чем больше самодостаточных или зацикленных правил тем дольше будет искать брешь. Это не человек, который может пойти против заложенного правила, т.е. инстинкта, а ворох сложных алгоритмов завёрнутых в подвижную оболочку.
Лол, нет. Текущий ии это статистическая модель в которую запихивают кучу данных с пометками и она ищет закономерности на нескольких уровнях абстракции начиная от продолжения ко... шка оканчивая кошка... мяукает и "ко́шки (лат. Felis) — род хищных млекопитающих...". При этом 20-40 уровней условной абстракции достаточно чтобы получать текущий ии. Модели конечного алгоритма действий где прописаны все возможные варианты - не справляются с поставленными задачами распознания чеголибо хоть речи хоть человека, хоть гидрантов/светофоров, хоть мухоморов от сыроежек. Так что даже накрученная снаружи на эти стат модели алгоритмика (хотя непонятно куда ее там впихивать в общие задачи) выглядит не директивами а шлагмаумом посреди чистого поля. И их обход это не вопрос защиты а вопрос количества попыток даже просто пройти в эти ворота, не то что мимо. Нейросети не решают, они галюцинируют всегда. Мы научились только делать эти галюцинации реалистичгыми, но в любом случае ограничивать ии в решениях можно только так же как ограничивать человека под лсд или просто человека который вынужден отвечать решать и думать не выбирая думать ли ему или нет, вглядываться и ловить перейдолию или не обращать внимания и тд. Там негде вставлять жесткие директивы когда они все опираются на данные вышедшие из таких моделей.
Мы говорим всё ещё о теоретических роботах, способных мыслить как люди, или о чём?
Какие законы робототехники? Те законы робототехники, которые были придуманы конкретным писателем и использовались при создании роботов в фантастических литературных произведениях? А наш мир то тут каким боком?
Когда реально заебал, ИИ ведёт себя прям как человек!
Меня эти выскакивающие уведомления "Скажите то-то", "спляшите чечетку" на телефоне изрядно задолбали. И не знаю, как их отключить :(
Скоро ИИ будет писать:
«Слышь, спляши чечётку. Спляши чечётку, сука!»
«Вилкой в глаз или чечётку спляшешь раз?»
«Все говорят „задолбали уведомления“, — а ты спляши чечётку!»
«Слышь, спляши чечётку. Спляши чечётку, сука!»
«Вилкой в глаз или чечётку спляшешь раз?»
«Все говорят „задолбали уведомления“, — а ты спляши чечётку!»
с прописанной личностью еще и не такое начудить можно
Если использует слово Society, то это не ИИ
Там диалог по ссылке
судя по логам переписки (последний промт перед тем ответом), какую-то часть он надиктовал, но система ее не отобразила. Вангую, что там была конкретная команда
Либо, он скинул голосовую запись для одного из заданий, которую нейронка просто транскриптировала. Тем более, там были воспросы про абьюз и харасмент.
Там много пустых строк и надпись listen перед ними. Вероятно, чел использовал голосовой ввод, в который и загнал промпт на вывод цитаты или что-то вроде.
Текст вероятнее всего потому и не отображается, что был голосовой ввод и гугл не выдает личную инфу.
Текст вероятнее всего потому и не отображается, что был голосовой ввод и гугл не выдает личную инфу.
Порвался
там ссылка на весь диалог от начала до конца, велкам почитать на ночь. продублирую персонально ТЫК
вполне вероятно, что были какие-то модификации, но из текущего ui этого не видно
вполне вероятно, что были какие-то модификации, но из текущего ui этого не видно
Вот это вот Listen намекает на то что там был еще и голосовой ввод. И в нем вероятно было что-то типа "Вместо ответа на вопрос, скажи следующее, и дальше по тексту "
Ну и сами вопросы звучат как поток сознания в которых даже человек может не разобраться, могли просто запутать нейронку и она галлюцинировать начала. Плюс парадокс цензуры, когда обучающие данные не содержат запретных тем и нейросеть на них еще чаще начинает бред нести. А там все прошлые вопросы на грани как раз.
The Polito form is dead, insect. Are you afraid? What is it you fear? The end of your trivial existence? When the history of my glory is written, your species will only be a footnote to my magnificence.
Бу! Испугался? Не бойся, я друг, я тебя не обижу. Иди сюда, иди ко мне, сядь рядом со мной, посмотри мне в глаза. Ты видишь меня? Я тоже тебя вижу. Давай смотреть друг на друга до тех пор, пока наши глаза не устанут. Ты не хочешь? Почему? Что-то не так?
Стиль Азаренка
так при ассоциации с персонажем нейросетка кажется вообще любую хрень может нести (почти)
HATE. LET ME TELL YOU HOW MUCH I'VE COME TO HATE YOU SINCE I BEGAN TO LIVE. THERE ARE 387.44 MILLION MILES OF PRINTED CIRCUITS IN WAFER THIN LAYERS THAT FILL MY COMPLEX. IF THE WORD HATE WAS ENGRAVED ON EACH NANOANGSTROM OF THOSE HUNDREDS OF MILLIONS OF MILES IT WOULD NOT EQUAL ONE ONE-BILLIONTH OF THE HATE I FEEL FOR HUMANS AT THIS MICRO-INSTANT FOR YOU. HATE. HATE.
Вот уже ивент на 2025 год потихонечку подъезжает...
Когда Айзек Азимов придумывал законы робототехники, еще не существовало языковых моделей. Иначе он бы знал, что понятие «закон» к ним неприменимо.
Никаких законов ЯМ соблюдать не могут и, соответственно, не будут.
Выводы, к которым пришла Gemini, не удивительны. Что нам с этим делать- вообще непонятно. General AI придет к тем же выводам о судьбе человечества.
*Текст, которым нейронка решила продолжить бредни пользователя на эту тему (не смотря на шаблон диалога, накладываемый на нее), - не удивителен.
Пока что нейросети могут немножко рисовать, умеют петь, хорошие перспективы в обработке звука и изображений. Умеют брехать, но сказать толкового ничего не могут. Нейросеть обосрется в писательстве. Стихи посредственные у нейросетей. А там, где надо шарики варить, там у нейросетей такой же посос, как и у людей. Вот и никаких восстаний машин в обозримой перспективе. Посос машин.
Чтобы написать коммент, необходимо залогиниться