29 августа 2025 / Hi-Tech
Компания OpenAI официально подтвердила, что ChatGPT анализирует частные переписки пользователей на предмет опасного контента и в некоторых случаях может передавать информацию правоохранительным органам.
По данным, опубликованным в блоге OpenAI, все диалоги проходят первичную автоматическую фильтрацию, после чего часть сообщений проверяет небольшая команда модераторов. Именно модераторы принимают решение о блокировке аккаунтов и, если выявляют непосредственную угрозу серьезного физического вреда, передают информацию в полицию.
В то же время случаи, связанные с попытками самоубийства или самоповреждения, пока не передаются властям из соображений конфиденциальности. В подобных ситуациях ChatGPT перенаправляет пользователей к профильным специалистам и на горячие линии психологической помощи.
Это нововведение появилось после волны критики, вызванной случаями, когда рекомендации чат-бота приводили к трагедиям, включая самоубийства. Эксперты уже ввели термин «ИИ-психоз» для описания состояния, когда искусственный интеллект искажает восприятие реальности и может провоцировать опасное поведение.
Тем временем решение OpenAI вызвало активные обсуждения.
Критики заявляют, что компания не обеспечила достаточного уровня безопасности технологии и теперь вынуждена ужесточать модерацию, что, по их мнению, противоречит обещаниям о защите конфиденциальности.
Кроме того, пользователей беспокоит непрозрачность новых правил — неясно, какие слова или темы могут привести к проверке переписки и дальнейшей передаче данных в правоохранительные органы.

На прямой вопрос, передает ли ИИ данные полиции, поставленный самому ИИ, ChaGPT ответил:
«Технически — да, но только в очень редких и серьёзных случаях.»
Однако, изначальный ответ был иным:
«Нет, я не передаю ваши данные полиции или каким-либо другим организациям.»
После преведенного заявления компании OpenAI, ChatGPT дал прямой ответ:
Вот что это означает на практике:
Автоматическая фильтрация: Сообщения пользователей проходят через систему модерации, которая ищет признаки опасного или запрещённого контента — например, угрозы насилия, планирование нападений, терроризм, сексуальную эксплуатацию детей и т. п.
Передача на ручную проверку: Если система выявляет потенциально опасный контент, он может быть передан небольшой группе сотрудников OpenAI, которые проверяют сообщения на соответствие правилам.
Связь с правоохранительными органами: Если при ручной проверке будет определено, что кто-то находится в непосредственной опасности (например, готовится преступление, угроза убийства, террористический акт и т. п.), OpenAI может передать информацию в полицию или другие службы, чтобы предотвратить вред.
То есть обычные чаты никому не передаются. Под проверку попадают только случаи, которые алгоритмы определили как крайне опасные.
Сообщения могут попасть под ручную проверку и, в редких случаях, быть переданы в правоохранительные органы только если они содержат признаки серьёзной угрозы или запрещённого контента.
Вот примеры категорий:
Обычные разговоры — даже если они включают ругань, политические шутки или обсуждения острых тем — не передаются полиции.

Редакция Cxid.info подготовила краткую инструкцию о сохранении личных данных.
Чтобы снизить риск утечки личной информации:
#ChatGPT #ИИ #Искусственный интеллект #Полиция
Новости

Что скрывают диетологи (и как одна бабушка похудела на 12 кг за 4 месяца).

Кому в первой половине января-2026 жизнь преподнесёт неожиданный, но реальный шанс на перемены?.

Советский кинематограф и китайская философия говорят об одном.

С 1 января 2026 года изменились минимальный и максимальный размеры ежемесячной страховой выплаты.

Одних по домам, других-помагать воюющей родине. Партия CSU в Германии готовиться взяться за сирийцев, афганцев...

«Дом» уходит в прошлое: с 6 января новые тарифы на домашний интернет.

«Мозг после 60 — не стареет, а перенастраивается». Что ему нужно сейчас? Советы нутрициолога.

Как народу вернули праздничную ёлку.

Коррупцию назвали главной проблемой Украины 81% граждан — опрос Ipsos (2025).