бургерЛого хедера
Поиск
avatar

Скандал вокруг ChatGPT: OpenAI признала, что удаленные и временные чаты пользователей тайно сохранялись по решению суда

Пользователи ChatGPT, возможно, не обратили внимания, что популярный чат-бот от OpenAI предлагает функцию "Временный чат". Она предназначена для полного удаления всей истории переписки между пользователем и ИИ сразу после завершения сеанса.

image

Кроме того, пользователи могут вручную удалять свои прошлые диалоги через боковую панель веб-версии или мобильного приложения (с помощью клика, долгого нажатия или сочетания клавиш).

Суть проблемы:

Однако на этой неделе OpenAI столкнулась с волной критики. Пользователи обнаружили, что компания фактически не удаляла эти журналы переписки, как обещала ранее.

  • "Вы хотите сказать, что мои удаленные чаты в ChatGPT на самом деле не удалены и сохраняются для судебного разбирательства?" – написал пользователь X (@ns123abc). Его пост набрал более миллиона просмотров.

  • Другой пользователь (@kepano) добавил: "Вы можете 'удалить' чат в ChatGPT, но все чаты обязаны храниться из-за юридических требований?".

  • Известный эксперт по ИИ и разработчик Саймон Уиллсон написал в своем блоге: "Платные клиенты API OpenAI могут принять решение перейти к другим поставщикам, которые смогут предложить политики хранения данных, не нарушаемые подобными судебными решениями!"

Причина и раскрытие информации:

OpenAI подтвердила, что с середины мая 2025 года она действительно сохраняет удаленные и временные чаты пользователей. Это делается в соответствии с решением федерального суда. Ключевое: компания не сообщала пользователям об этом до 5 июня.

Судебное предписание, вынесенное 13 мая 2025 года судьей Оной Т. Ванг, требует от OpenAI "сохранять и изолировать все данные журналов вывода, которые в противном случае подлежали бы удалению". Это касается чатов, удаленных по запросу пользователя или в соответствии с обязательствами по защите приватности.

Источник требований:

Это решение связано с продолжающимся уже полтора года авторским иском газеты The New York Times (NYT) против OpenAI и Microsoft. Юристы NYT утверждают, что языковые модели OpenAI дословно воспроизводят защищенные авторским правом новостные материалы. Истцы настаивают, что журналы чатов, включая удаленные пользователями, могут содержать примеры такого нарушения, релевантные для дела.

OpenAI немедленно выполнила предписание, но уведомила пользователей публично только через три недели, опубликовав пояснительный пост и FAQ о юридическом мандате и затронутых категориях пользователей.

Позиция OpenAI: Вина на NYT и суде

Компания возлагает ответственность исключительно на NYT и судью, называя требование о сохранении данных "необоснованным".

Вчерашний пост в блоге, написанный операционным директором OpenAI Брэдом Лайткэпом, защищает позицию компании:

  • "The New York Times и другие истцы выдвинули всеобъемлющее и излишнее требование в своем необоснованном иске против нас: бессрочно хранить данные пользователей ChatGPT и клиентов API. Это фундаментально противоречит обязательствам по приватности, которые мы дали нашим пользователям".

Кого это касается?

В посте уточняется:

  1. Затронуты: Пользователи бесплатной версии ChatGPT (Free), подписчики Plus и Pro, пользователи тарифа Team, а также клиенты API без соглашения о нулевом хранении данных (Zero Data Retention, ZDR). Даже если эти пользователи удалят свои чаты или используют временный чат, их переписка будет храниться неопределенно долго.

  2. Не затронуты: Корпоративные клиенты (ChatGPT Enterprise), образовательные пользователи (Edu), а также клиенты API, использующие конечные точки с ZDR. Их чаты будут удаляться в обычном режиме.

Как хранятся данные?

Сохраненные данные находятся под юридической блокировкой (legal hold). Это означает, что они хранятся в защищенной изолированной системе, доступ к которой имеют только ограниченное число сотрудников юридического отдела и службы безопасности.

"Эти данные не передаются автоматически The New York Times или кому-либо еще", – подчеркнул Лайткэп.

Идея "Привилегии ИИ" от Сэма Олтмана

Генеральный директор и соучредитель OpenAI Сэм Олтман также публично высказался по проблеме в своем аккаунте в X:

  • "Недавно NYT попросила суд заставить нас не удалять никакие пользовательские чаты. Мы считаем это неуместным требованием, создающим плохой прецедент. Мы обжалуем решение. Мы будем бороться с любым требованием, ставящим под угрозу приватность наших пользователей; это основополагающий принцип".

  • Он также предложил создать более широкую правовую и этическую основу для приватности ИИ: "Мы недавно размышляли о необходимости чего-то вроде 'привилегии ИИ'; эта ситуация ускоряет необходимость начать этот разговор. По моему мнению, разговор с ИИ должен быть конфиденциальным, как разговор с адвокатом или врачом. Надеюсь, общество скоро разберется с этим".

Концепция "привилегии ИИ" как потенциального юридического стандарта перекликается с адвокатской тайной и врачебной тайной. Пока неясно, получит ли эта идея поддержку в судах или политических кругах, но заявления Олтмана указывают на то, что OpenAI будет активно продвигать такой подход.

Что дальше?

  • OpenAI подала формальное возражение на решение суда, требуя его отмены.

  • В судебных документах компания утверждает, что требование не имеет фактических оснований, а сохранение миллиардов дополнительных точек данных не является ни необходимым, ни соразмерным.

  • Судья Ванг на слушании 27 мая указала, что предписание носит временный характер. Она поручила сторонам разработать план выборочной проверки, чтобы определить, существенно ли отличаются удаленные пользовательские данные от сохраненных журналов. OpenAI должна была представить этот план к 6 июня (информация о подаче на момент публикации отсутствует).

Последствия для бизнеса:

Хотя предписание не касается корпоративных клиентов (Enterprise) и пользователей API с ZDR, его юридические и репутационные последствия крайне важны для специалистов, отвечающих за внедрение и масштабирование ИИ-решений в компаниях.

  • Ответственным за полный жизненный цикл больших языковых моделей (LLM) необходимо пересмотреть предположения об управлении данными.

  • Если пользовательские взаимодействия с LLM могут попадать под судебные предписания о сохранении данных, это ставит острые вопросы: куда попадают данные после выхода из защищенной конечной точки, как изолировать, регистрировать или обезличивать рисковые взаимодействия.

  • Любая платформа, использующая API OpenAI, должна проверить, какие конечные точки (ZDR или обычные) задействованы, и обеспечить соответствие политик обработки данных пользовательским соглашениям, журналам аудита и внутренней документации.

  • Даже при использовании ZDR-конечных точек, политики жизненного цикла данных могут потребовать пересмотра, чтобы убедиться, что сопутствующие системы (аналитика, логирование, резервное копирование) не сохраняют транзитные взаимодействия, которые предполагались краткосрочными.

  • Специалистам по безопасности необходимо расширить моделирование угроз, включив в них юридический запрос как потенциальный вектор риска. Команды должны проверить, соответствуют ли внутренние практики хранения данных OpenAI внутренним контролям и оценкам рисков третьих сторон, и не полагаются ли пользователи на функции вроде "Временного чата", которые больше не работают как ожидалось из-за судебного предписания.

Новый рубеж для приватности и безопасности:

Эта ситуация – не просто юридическая тяжба; это переломный момент в развивающейся дискуссии о приватности ИИ и правах на данные. Предлагая концепцию "привилегии ИИ", OpenAI, по сути, предлагает новый общественный договор о том, как умные системы должны обрабатывать конфиденциальную информацию.

Пока неясно, примут ли суды или законодатели такую постановку вопроса. Но на данный момент OpenAI оказалась в ситуации сложного баланса – между соблюдением закона, гарантиями для бизнеса и доверием пользователей – и сталкивается с нарастающими вопросами о том, кто контролирует ваши данные, когда вы разговариваете с машиной.

0 комментариев

Вас могут заинтересовать