29 августа 2025 / Hi-Tech
Компания OpenAI официально подтвердила, что ChatGPT анализирует частные переписки пользователей на предмет опасного контента и в некоторых случаях может передавать информацию правоохранительным органам.
По данным, опубликованным в блоге OpenAI, все диалоги проходят первичную автоматическую фильтрацию, после чего часть сообщений проверяет небольшая команда модераторов. Именно модераторы принимают решение о блокировке аккаунтов и, если выявляют непосредственную угрозу серьезного физического вреда, передают информацию в полицию.
В то же время случаи, связанные с попытками самоубийства или самоповреждения, пока не передаются властям из соображений конфиденциальности. В подобных ситуациях ChatGPT перенаправляет пользователей к профильным специалистам и на горячие линии психологической помощи.
Это нововведение появилось после волны критики, вызванной случаями, когда рекомендации чат-бота приводили к трагедиям, включая самоубийства. Эксперты уже ввели термин «ИИ-психоз» для описания состояния, когда искусственный интеллект искажает восприятие реальности и может провоцировать опасное поведение.
Тем временем решение OpenAI вызвало активные обсуждения.
Критики заявляют, что компания не обеспечила достаточного уровня безопасности технологии и теперь вынуждена ужесточать модерацию, что, по их мнению, противоречит обещаниям о защите конфиденциальности.
Кроме того, пользователей беспокоит непрозрачность новых правил — неясно, какие слова или темы могут привести к проверке переписки и дальнейшей передаче данных в правоохранительные органы.

На прямой вопрос, передает ли ИИ данные полиции, поставленный самому ИИ, ChaGPT ответил:
«Технически — да, но только в очень редких и серьёзных случаях.»
Однако, изначальный ответ был иным:
«Нет, я не передаю ваши данные полиции или каким-либо другим организациям.»
После преведенного заявления компании OpenAI, ChatGPT дал прямой ответ:
Вот что это означает на практике:
Автоматическая фильтрация: Сообщения пользователей проходят через систему модерации, которая ищет признаки опасного или запрещённого контента — например, угрозы насилия, планирование нападений, терроризм, сексуальную эксплуатацию детей и т. п.
Передача на ручную проверку: Если система выявляет потенциально опасный контент, он может быть передан небольшой группе сотрудников OpenAI, которые проверяют сообщения на соответствие правилам.
Связь с правоохранительными органами: Если при ручной проверке будет определено, что кто-то находится в непосредственной опасности (например, готовится преступление, угроза убийства, террористический акт и т. п.), OpenAI может передать информацию в полицию или другие службы, чтобы предотвратить вред.
То есть обычные чаты никому не передаются. Под проверку попадают только случаи, которые алгоритмы определили как крайне опасные.
Сообщения могут попасть под ручную проверку и, в редких случаях, быть переданы в правоохранительные органы только если они содержат признаки серьёзной угрозы или запрещённого контента.
Вот примеры категорий:
Обычные разговоры — даже если они включают ругань, политические шутки или обсуждения острых тем — не передаются полиции.

Редакция Cxid.info подготовила краткую инструкцию о сохранении личных данных.
Чтобы снизить риск утечки личной информации:
#ChatGPT #ИИ #Искусственный интеллект #Полиция
Новости

В России поэтапно ограничивают WhatsApp — онки и переписка с родными в РФ могут стать затруднительными.

Что будет дальше — объяснение простыми словами.

Работа проводника железнодорожного вагона — это не просто проверка билетов и подача чая.

Всё зависит от того, где эти карты открыты.

Декабрь может дать ложное ощущение зимы, но основные аномалии в феврале.

Помощник Путина сделал важный акцент.

Представители США сразу после переговоров из Москвы отправятся в Вашингтон.

Руководитель офиса Андрей Ермак написал заявление об отставке.

Через 12 дней изменятся тарифы. Важно для тех кто в роуминге.

Бывший глава Офиса президента заявил, что поедет на фронт.