Технологічні компанії, як-от Google, Adobe і Meta, вносять коригування у свої політики конфіденційності, що дозволяють використовувати призначені для користувача дані для тренування ШІ. Ці зміни часто проводяться непомітно і приховано, щоб уникнути громадського обурення.
Великі технологічні гіганти, включно з Google, Adobe і Meta, переглядають свої політики конфіденційності, щоб використовувати призначені для користувача дані для тренування моделей штучного інтелекту (ШІ). Часто ці зміни проводяться непомітно і з умілим камуфлюванням, щоб уникнути суспільного невдоволення.
Федеральна торгова комісія США (FTC) попередила, що такі дії можуть бути незаконними і порушувати зобов’язання компаній щодо захисту конфіденційності користувачів. Аналіз The New York Times показав, що компанії непомітно змінюють свої умови використання, включаючи терміни, пов’язані з ШІ, щоб отримати юридичне прикриття.
Нагадаємо, що Google оновила свою політику конфіденційності в липні минулого року, заявивши про намір використовувати загальнодоступну інформацію для тренування своїх мовних моделей ШІ. Adobe також змінила свої умови, що викликало негативну реакцію користувачів, які дізналися, що можуть втратити доступ до своїх проєктів, якщо не погодяться з новими умовами. Це призвело до масової відмови від підписок на сервіси компанії.
Meta, зі свого боку, у травні оголосила про намір використовувати загальнодоступні пости у Facebook та Instagram* для тренування ШІ, але була змушена відкласти ці плани через скаргу міжнародної організації із захисту прав людини в інтернеті (European Center for Digital Rights, EDRi).
Наразі невідомо, які кроки зробить FTC у відповідь на зростаючу тенденцію зміни політики конфіденційності для включення тренування ШІ на основі користувацьких даних.