OpenAI запустила кастомный ChatGPT, который следит за перепиской работников

OpenAI запустила кастомний ChatGPT, який слідкує за листуванням працівників

OpenAI использует внутреннюю версию ChatGPT для выявления сотрудников, которые могут передавать конфиденциальную информацию журналистам. Инструмент анализирует корпоративные коммуникации и сопоставляет их с обнародованными материалами в медиа. По этому поводу в Reddit уже идут дискуссии.

По данным New York Post, после выхода статьи о внутренних процессах компании служба безопасности OpenAI загружает ее текст в специально настроенную версию ChatGPT. Эта система имеет доступ к внутренним документам, переписке сотрудников в Slack и электронной почты. Алгоритм анализирует содержание публикации, определяет, какие именно файлы или каналы могли содержать соответствующую информацию, и устанавливает круг работников, имевших к ней доступ.

OpenAI uses internal version of ChatGPT to identify staffers who leak information: report
byu/EchoOfOppenheimer inOpenAI

Источник, знакомый с процессом, отметил, что инструмент способен учитывать контекст, а не только прямые текстовые совпадения, что позволяет находить возможные утечки даже в случаях перефразирования. По информации WinBuzzer, система может сокращать расследование с нескольких недель до минут. В то же время публичных подтверждений того, что кто-то был освобожден именно благодаря этому механизму, пока нет.

«Ирония обнаружена. Разве это не тот тип неправильного использования ИИ, о котором мы предупреждали?» — спрашивает пользователь Invalid_Ad4412.

Практика появилась на фоне серии утечек о внутренних проектах OpenAI, в частности инициатив под названиями «Q*» и «Project Strawberry». Компания традиционно уделяет повышенное внимание защите интеллектуальной собственности, включая вес моделей и другие технические наработки, которые могут представлять коммерческую ценность. OpenAI не является исключением для Кремниевой долины: жесткую политику конфиденциальности практикуют также Apple, Tesla и Anthropic. Такие компании стремятся минимизировать риски утечки данных о разработках, стратегиях и новых продуктах. В прошлом OpenAI и другие лаборатории искусственного интеллекта увольняли исследователей за ненадлежащее распространение внутренней информации.

«Обнаружение утечек и их предотвращение не является новой темой, это существовало задолго до OpenAI» — справедливо написал редатор Logical-Ad877.

В то же время в последние месяцы OpenAI и Anthropic заявляли об усилении механизмов защиты обличителей, которые сообщают о потенциальные нарушения или риски для безопасности. Это создает сложный баланс между внутренним контролем и декларируемой открытостью к сигналам о проблемах.

«Если у них есть внутренняя версия, которая не галлюцинирует и дает правильные ответы 100% времени вместо 80%, почему они не выпускают ее публично? Они фактически гарантируют ложные обвинения. Ужасно», — замечает ChatModulator9.

Официальных подробных комментариев относительно технической архитектуры системы или ее масштабов компания не обнародовала. Однако сам факт использования собственной языковой модели для внутренних расследований свидетельствует о том, что OpenAI интегрирует генеративный ИИ не только в продукты для клиентов, но и в процессы корпоративной безопасности.

СпецпроектыПерша угода із нульовим ризиком: біржа Bitget запустила нову акцію. Ось її умовиBitget представляє програму WE STAY. Як вона захищає VIP-клієнтів під час стресів на ринку

Менеджер активів про OpenAI: “Я бачив руйнування багатьох компаній, у цієї є всі ознаки”

Источник: The Information