
Ведущий регулятор конфиденциальности Google в Европейском союзе начал расследование, связанное с тем, соблюдает ли он законы о защите данных блока в отношении использования информации о людях для обучения универсальному искусственному интеллекту.
Конкретно исследуется, нуждалась ли технический гигант в проведении оценки влияния на защиту данных (DPIA), чтобы заранее рассмотреть риски, которые его технологии искусственного интеллекта могут представлять для прав и свобод людей, чья информация использовалась для обучения моделей.
Ирландская комиссия по защите данных (DPC), которая контролирует соблюдение Google блокового регулирования защиты данных (GDPR), имеет право на наложение штрафов в размере до 4% от глобального годового оборота Алфавита (родительского субъекта Google) за подтвержденные нарушения.
Генеративные инструменты искусственного интеллекта известны своей способностью производить правдоподобные ложные утверждения. Эта тенденция, в сочетании с возможностью предоставлять личную информацию по запросу, создает много юридических рисков для их создателей. Под этими инструментами искусственного интеллекта, предназначенными для потребителей, находится Google LLM под названием PaLM2, который был запущен в прошлом году на конференции разработчиков I/O.
Обучение моделей GenAI обычно требует огромных объемов данных, и виды информации, которые получили создатели LLM, а также способы и места их получения, все более строго анализируются в связи с рядом юридических вопросов, включая авторское право и конфиденциальность.
В последнем случае информация, используемая в качестве обучающего материала для искусственного интеллекта, содержащее личную информацию европейских граждан, подпадает под правила защиты данных блока, независимо от того, была ли она собрана с общедоступного интернета или получена непосредственно от пользователей. Поэтому некоторые LLM уже столкнулись с вопросами - и некоторые соблюдении GDPR - связанными с соблюдением конфиденциальности, включая OpenAI, создателя GPT (и ChatGPT); и Meta, который разрабатывает модель искусственного интеллекта Llama.
Имущество Elon Musk также привлекло жалобы GDPR и гнев DPC из-за использования данных людей для обучения искусственного интеллекта - что привело к судебному разбирательству и обязательствам Х ограничить свою обработку данных, но без наказания. Х все равно может столкнуться с штрафом GDPR, если DPC определит, что его обработка пользовательских данных для обучения своего инструмента искусственного интеллекта Grok нарушила режим.
Расследование DPIA DPC по GenAI от Google является последним регуляторным действием в этой области.
"Законный запрос касается вопроса, соблюдает ли Google какие-либо обязательства по проведению оценки в соответствии со статьей 35 Общего регламента о защите данных (оценка влияния на защиту данных) перед началом обработки персональных данных субъектов данных блока ЕС/ЕЭЗ, связанной с разработкой своей основной модели искусственного интеллекта, Pathways Language Model 2 (PaLM 2)", - написал DPC в пресс-релизе.
"Эта законная проверка входит в более широкие усилия DPC, работающей в сотрудничестве со своими регуляторами из ЕС/ЕЭЗ, в регулировании обработки персональных данных субъектов данных ЕС/ЕЭЗ при разработке моделей искусственного интеллекта и систем", - добавил DPC, указывая на текущие усилия блочной сети регуляторов GDPR по достижению некоего консенсуса о том, как лучше всего применять закон о конфиденциальности к инструментам GenAI.
Google не ответил на вопросы о источниках данных, используемых для обучения его инструментов GenAI, но представитель Джей Столл отправил электронное письмо, в котором Google написал: "Мы серьезно относимся к нашим обязательствам согласно GDPR и будем конструктивно работать с DPC, чтобы ответить на их вопросы".
ЧатGPT нарушает европейские законы о конфиденциальности, сообщает итальянская DPA OpenAI
Meta приостанавливает планы по обучению искусственного интеллекта с использованием данных европейских пользователей, подчиняясь регуляторному давлению