29 августа 2025 / Hi-Tech
Компания OpenAI официально подтвердила, что ChatGPT анализирует частные переписки пользователей на предмет опасного контента и в некоторых случаях может передавать информацию правоохранительным органам.
По данным, опубликованным в блоге OpenAI, все диалоги проходят первичную автоматическую фильтрацию, после чего часть сообщений проверяет небольшая команда модераторов. Именно модераторы принимают решение о блокировке аккаунтов и, если выявляют непосредственную угрозу серьезного физического вреда, передают информацию в полицию.
В то же время случаи, связанные с попытками самоубийства или самоповреждения, пока не передаются властям из соображений конфиденциальности. В подобных ситуациях ChatGPT перенаправляет пользователей к профильным специалистам и на горячие линии психологической помощи.
Это нововведение появилось после волны критики, вызванной случаями, когда рекомендации чат-бота приводили к трагедиям, включая самоубийства. Эксперты уже ввели термин «ИИ-психоз» для описания состояния, когда искусственный интеллект искажает восприятие реальности и может провоцировать опасное поведение.
Тем временем решение OpenAI вызвало активные обсуждения.
Критики заявляют, что компания не обеспечила достаточного уровня безопасности технологии и теперь вынуждена ужесточать модерацию, что, по их мнению, противоречит обещаниям о защите конфиденциальности.
Кроме того, пользователей беспокоит непрозрачность новых правил — неясно, какие слова или темы могут привести к проверке переписки и дальнейшей передаче данных в правоохранительные органы.

На прямой вопрос, передает ли ИИ данные полиции, поставленный самому ИИ, ChaGPT ответил:
«Технически — да, но только в очень редких и серьёзных случаях.»
Однако, изначальный ответ был иным:
«Нет, я не передаю ваши данные полиции или каким-либо другим организациям.»
После преведенного заявления компании OpenAI, ChatGPT дал прямой ответ:
Вот что это означает на практике:
Автоматическая фильтрация: Сообщения пользователей проходят через систему модерации, которая ищет признаки опасного или запрещённого контента — например, угрозы насилия, планирование нападений, терроризм, сексуальную эксплуатацию детей и т. п.
Передача на ручную проверку: Если система выявляет потенциально опасный контент, он может быть передан небольшой группе сотрудников OpenAI, которые проверяют сообщения на соответствие правилам.
Связь с правоохранительными органами: Если при ручной проверке будет определено, что кто-то находится в непосредственной опасности (например, готовится преступление, угроза убийства, террористический акт и т. п.), OpenAI может передать информацию в полицию или другие службы, чтобы предотвратить вред.
То есть обычные чаты никому не передаются. Под проверку попадают только случаи, которые алгоритмы определили как крайне опасные.
Сообщения могут попасть под ручную проверку и, в редких случаях, быть переданы в правоохранительные органы только если они содержат признаки серьёзной угрозы или запрещённого контента.
Вот примеры категорий:
Обычные разговоры — даже если они включают ругань, политические шутки или обсуждения острых тем — не передаются полиции.

Редакция Cxid.info подготовила краткую инструкцию о сохранении личных данных.
Чтобы снизить риск утечки личной информации:
#ChatGPT #ИИ #Искусственный интеллект #Полиция
Новости

Индексация советских вкладов в Молдове: как получить компенсацию в 2026 году.

Что в этом возрасте просто теряет смысл.

У американцев возникло чувство надежды.

Что раскопали журналисты NBC, Reuters, ТАСС и официальные заявления сторон.

Гениальный советский лайфхак, не только теплее, но и уютней.

Трамп считает, что такая встреча должна состояться уже в ближайшее время.

Из центров для беженцев в Германии пропали в неизвестном направлении около тысячи человек.

Украинские автомобилисты не будут отличаться от польских и должны будут проходить техосмотр.

В Потсдаме власти ощущают нехватку жилья для прибывающих украинцев. Куда обращаться за помощью в Бранденбурге?.