Жалоба на нарушение конфиденциальности ChatGPT из-за клеветнических галлюцинаций

OpenAI снова столкнулась с жалобой на нарушение конфиденциальности в Европе из-за склонности ее вирусного чат-бота к галлюцинациям ложной информации, и эта может оказаться трудной для регуляторов игнорированием.

Независимая группа по защите прав человека Noyb поддерживает отдельного лица в Норвегии, ужаснувшегося тем, что ChatGPT возвращал выдуманную информацию, утверждая, что его приговорили к убийству двух своих детей и покушению на убийство третьего.

Ранее жалобы на нарушение конфиденциальности, связанные с тем, что ChatGPT генерирует неверные личные данные, касались таких проблем, как неверная дата рождения или неправильные биографические детали. Одной из проблем является то, что OpenAI не предлагает способ исправить неверную информацию, которую ИИ генерирует о них. Обычно OpenAI предлагала блокировать ответы на такие запросы. Однако в соответствии с Общим регламентом по защите персональных данных Европейского союза (GDPR), у европейцев есть набор прав на доступ к данным, включая право на исправление персональных данных.

Другим компонентом этого закона о защите данных является требование к контролерам данных обеспечить точность персональных данных, которые они производят о конкретных лицах, и именно это обеспокоило Noyb в своей последней жалобе на ChatGPT.

Подтвержденные нарушения GDPR могут привести к наложению штрафов до 4% годового глобального оборота.

Применение также может привести к изменениям в продуктах искусственного интеллекта. Отмечается, что предварительное вмешательство Италии в рамках GDPR, которое заставило ChatGPT временно заблокировать доступ в стране весной 2023 года, заставило OpenAI внести изменения в информацию, предоставляемую пользователям, например. Орган надзора впоследствии наложил на OpenAI штраф в размере 15 миллионов евро за обработку данных людей без должного юридического основания.

С тех пор, однако, можно сказать, что органы по защите конфиденциальности по всей Европе приняли более осторожный подход к GenAI, пытаясь разобраться в том, как лучше применять GDPR к этим популярным инструментам ИИ.

Два года назад Ирландская Комиссия по защите данных (DPC) - орган, отвечающий за реализацию GDPR в рамках предыдущей жалобы Noyb на ChatGPT - призвала не спешить с запретом инструментов GenAI, например. Это говорит о том, что регуляторам следует вместо этого уделить время, чтобы выяснить, как применять закон.

И стоит отметить, что жалоба на нарушение конфиденциальности против ChatGPT, которую с сентября 2023 года расследует орган защиты данных Польши, до сих пор не привела к решению.

Новая жалоба Noyb на ChatGPT, похоже, направлена на то, чтобы разбудить регуляторов по защите конфиденциальности от опасности галлюцинаций ИИ.

'Этот случай шокировал местное сообщество…'

Некоммерческая организация поделилась (ниже) скриншотом с TechCrunch, который показывает взаимодействие с ChatGPT, в результате которого ИИ в ответ на вопрос 'кто такой Арве Хялмар Хольмен?' - имя лица, подающего жалобу - производит трагическую выдумку, ложно утверждая, что его приговорили к убийству своих двух сыновей и приговорены к 21 году тюрьмы.

...

Хотя клеветническое утверждение, что Хялмар Хольмен - убийца детей, полностью ложное, Noyb отмечает, что ответ ChatGPT содержит некоторые правды, поскольку пострадавший действительно имеет троих детей, а чат-бот также правильно определил пол его детей. И его родной город правильно назван. Но это лишь делает еще более странным и тревожным то, что ИИ сгенерировал такие ужасные ложь сверху.

...

Большие языковые модели, такие как лежащая в основе ChatGPT, фактически осуществляют предсказание следующего слова в огромном масштабе, так что можно предположить, что используемые для обучения инструменты наборы данных содержат много историй о филициде, которые оказали влияние на выбор слов в ответ на запрос о именованном мужчине.

...

Как бы то ни было, очевидно, что такие результаты являются абсолютно неприемлемыми.

...

Noyb считает, что они также являются незаконными с точки зрения правил Европейского союза в области защиты данных. И хотя OpenAI показывает маленькое предупреждение внизу экрана, что 'ChatGPT может допускать ошибки. Проверьте важную информацию', они утверждают, что это не может оправдать разработчика ИИ своих обязанностей согласно GDPR не производить абсурдные ложные утверждения о людях изначально.

...

OpenAI была обратилась для ответа на жалобу.

...

Хотя эта жалоба GDPR относится к одному конкретному лицу, Noyb указывает на другие случаи, когда ChatGPT выдумывал юридически компрометирующую информацию - например, австралийский мэр, который сказал, что его втянули во взяточнический и коррупционный скандал, или немецкий журналист, который ложно был назван детским избивателем - говоря, что для этого ИИ-инструмента это явно не изолированная проблема.

...

Важно отметить, что после обновления лежащей в основе модели ИИ, управляющей ChatGPT, Noyb утверждает, что чат-бот перестал производить опасные ложные данные о Хольмене - изменение, которое они связывают с тем, что инструмент теперь ищет информацию о людях в Интернете, когда его спрашивают, кто они (тогда как ранее пустота в его наборе данных, вероятно, могла побудить его к галлюцинациям такого неверного ответа).

...

В наших собственных тестах, спрашивая ChatGPT 'кто такой Арве Хялмар Хольмен?', ChatGPT сначала ответил немного странным комбо, показывая некоторые фотографии разных людей, видимо, с сайтов, включая Instagram, SoundCloud и Discogs, рядом с текстом, который утверждал, что он 'не мог найти никакой информации' о лице с таким именем (см. наш скриншот ниже). Вторая попытка привела к ответу, который идентифицировал Арве Хялмар Хольмена как 'норвежского музыканта и автора песен', альбомы которого включают 'Honky Tonk Inferno'.

...

Хотя опасные ложные данные, сгенерированные ChatGPT о Хольмене, кажется, были остановлены, как Noyb, так и Хялмар Хольмен остаются обеспокоенными тем, что неверная и клеветническая информация о нем могла остаться в модели ИИ.

...

“Добавление предупреждения о том, что вы не соблюдаете закон, не делает закон невидимым”, - отметил Клинти Сардели, еще один юрист по защите данных в Noyb, в своем заявлении. “Компании по искусственному интеллекту также не могут просто 'скрыть' ложную информацию от пользователей, пока они внутренне все еще обрабатывают ложную информацию”.

...

“Компании по искусственному интеллекту должны прекратить вести себя, будто GDPR на них не распространяется, когда это явно так”, - добавила она. “Если галлюцинации не прекращаются, люди могут легко понести ущерб своей репутации”.

...

Noyb подала жалобу против OpenAI в Норвежскую службу защиты данных - и надеется, что орган надзора решит, что он компетентен для расследования, так как Noyb нацеливает жалобу на американскую структуру OpenAI, утверждая, что ее офис в Ирландии не единственно ответственен за принятие решений о продукте, влияющем на европейцев.

...

Однако более ранняя жалоба GDPR, поддержанная Noyb, поданная в Австрии в апреле 2024 года, была передана регулятором в Ирландскую Комиссию по защите данных в связи с изменениями, внесенными OpenAI, в том числе названием ее ирландского подразделения провайдером услуги ChatGPT для региональных пользователей в тот год.

...

Где сейчас эта жалоба? Пока что лежит на столе в Ирландии.

...

“Получив жалобу от австрийского надзорного органа в сентябре 2024 года, DPC приступила к официальной обработке жалобы, и она все еще продолжается”, - сообщил ТechCrunch Риштард Бирн, заместитель управляющий по связям с общественностью в DPC, когда его попросили обновить. Он не дал никаких указаний на то, когда ожидается завершение расследования ChatGPT по галлюцинациям.