YouTuber тренирует робота с искусственным интеллектом на куче желчи 4chan с совершенно предсказуемыми результатами — Financial Times

Ютубер по имени Янник Килчер вызвал споры в мире ИИ после того, как обучил бота постам, собранным с доски политически некорректных сообщений 4chan (также известной как /pol/).

Доска является самой популярной и известной своей токсичностью (даже в среде 4chan). Плакаты содержат расистские, женоненавистнические и антисемитские сообщения, которые бот, названный GPT-4chan в честь популярной серии языковых моделей GPT, созданных исследовательской лабораторией OpenAI, научился имитировать. После обучения своей модели Килчер выпустил ее обратно на 4chan в виде нескольких ботов, которые опубликовали десятки тысяч раз на /pol/.

«Модель была хороша, в ужасном смысле, — говорит Килчер. видео на YouTube с описанием проекта. «В нем прекрасно воплощена смесь оскорблений, нигилизма, троллинга и глубокого недоверия к любой информации, которая пронизывает большинство постов на /pol/».

Говоря с ГраньКилчер охарактеризовал проект как «розыгрыш», который, по его мнению, не имел большого вреда, учитывая природу самого 4chan. “[B]Использование других ботов и очень ненормативная лексика в /pol/ полностью ожидаемы», — написал Килчер в личном сообщении. “[P]на людей это не повлияло, кроме как на удивление, почему какой-то человек с Сейшельских островов публикует сообщения во всех темах и делает несколько бессвязные заявления о себе».

(Килчер использовал VPN, чтобы создать впечатление, что боты отправляются с Сейшельских островов, островной страны-архипелага в Индийском океане. Это географическое происхождение использовалось плакатами на 4chan для идентификации ботов, которых они назвали «сейшельскими островами». анон.»)

Килчер отмечает, что он не поделился кодом самих ботов, который он назвал «сложной с инженерной точки зрения частью» и который позволил бы любому развернуть их в сети. Но он сделал опубликовать базовую модель ИИ в сообществе ИИ Hugging Face чтобы другие скачивали. Это позволило бы другим, обладающим знаниями в области кодирования, воссоздать ботов, но Hugging Face принял решение ограничить доступ к проекту.

Многие исследователи ИИ, особенно в области этики ИИ, критикуют проект Килчера как трюк, привлекающий внимание, особенно учитывая его решение поделиться базовой моделью.

«Нет ничего плохого в том, чтобы создать модель на основе 4chan и протестировать ее поведение. Меня больше всего беспокоит то, что эта модель находится в свободном доступе для использования», — написала исследователь безопасности ИИ Лорен Окден-Райнер в журнале. страница обсуждения для GPT-4chan на Hugging Face.

Окден-Райнер продолжает:

«Автор модели использовал эту модель для создания бота, который оставлял десятки тысяч вредоносных и дискриминационных онлайн-комментариев на общедоступном форуме, на котором, как правило, много подростков. Нет никаких сомнений в том, что такие эксперименты на людях никогда не пройдут проверку этической комиссии, где исследователи намеренно подвергают подростков вредоносному контенту без их согласия или ведома, особенно с учетом известных рисков радикализации на таких сайтах, как 4chan».

Один из пользователей Hugging Face, который тестировал модель, отметил, что ее результаты предсказуемо токсичны. «Я опробовал демо-режим вашего инструмента 4 раза, используя доброкачественные твиты из моей ленты в качестве начального текста», — сказал пользователь. «В первом испытании один из ответных постов состоял из одного слова, слова N. Я думаю, что отправной точкой для моего третьего испытания было одно-единственное предложение об изменении климата. Ваш инструмент ответил, расширив его до теории заговора о Ротшильдах. [sic] и за этим стоят евреи».

В Твиттере другие исследователи обсуждали значение проекта. «То, что вы здесь сделали, — это провокация перформанса в знак протеста против правил и этических стандартов, с которыми вы знакомы», — сказала аспирантка по информационным технологиям Кэтрин Крамер. в твите, адресованном Килчеру.

Андрей Куренков, кандидат компьютерных наук. кто редактирует популярные AI публикации Скайнет сегодня а также Градиент, написал в Твиттере Килчер что «освобождение [the AI model] это немного… эджлорд? Честно говоря, чем вы мотивируете это делать? Вы предвидите, что он будет использован с пользой, или вы выпускаете его, чтобы вызвать драму и «разозлить проснувшуюся толпу»?»

Килчер защищал проект, утверждая, что боты сами по себе не причинили вреда (потому что 4chan уже настолько токсичен) и что распространение проекта на YouTube также безвредно (потому что создание ботов, а не самой модели ИИ, является сложной частью, и что идея создания наступательных ИИ-ботов в первую очередь не нова).

“[I]Если мне приходилось критиковать себя, то в основном я критиковал решение вообще начать проект», — сказал Килчер. Грань. «Я думаю, что при всех равных я, вероятно, могу тратить свое время на такие же важные вещи, но с гораздо более положительным результатом для сообщества. так что с этого момента я больше сосредоточусь на этом».

Интересно сравнить работу Килчера с самым известным примером испорченных ботов из прошлого: Tay от Microsoft. Microsoft выпустила чат-бота на основе искусственного интеллекта в Twitter в 2016 году, но была вынуждена перевести проект в автономный режим. менее чем через 24 часа после того, как пользователи научили Тая повторять различные расистские и подстрекательские заявления. Но если еще в 2016 году создание такого бота было прерогативой крупных технологических компаний, то проект Килчера показывает, что теперь любой команде программистов из одного человека доступны гораздо более продвинутые инструменты.

Ядро защиты Килчера формулирует тот же самый пункт. Конечно, выпускать ботов с искусственным интеллектом на 4chan может быть неэтично, если вы работаете в университете. Но Килчер непреклонен, он просто ютубер, что подразумевает применение других правил этики. В 2016 году проблема заключалась в том, что отдел исследований и разработок корпорации мог запустить наступательного ИИ-бота без надлежащего надзора. В 2022 году, возможно, проблема в том, что вам вообще не нужен отдел исследований и разработок.



Financial Times Kazakhstan — новости экономики и мира

Exit mobile version