77% сотрудников хотя бы раз вводили конфиденциальные данные компаний в ChatGPT или другие инструменты ИИ, говорит исследование компании по кибербезопасности LayerX Security среди их клиентов по всему миру. В то же время более четверти компаний уже временно запрещали генеративный ИИ из-за рисков утечки информации.
В марте 2023 года 1,2% пользователей платной версии ChatGPT Plus могли видеть чаты других людей в своей истории разговоров. А в 2025 году злоумышленники получили несанкционированный доступ к поставщику аналитики данных Mixpanel и скомпрометировали идентификационные данные пользователей.
Несмотря на риски, люди все чаще используют большие языковые модели (LLM). Например, недельное количество пользователей ChatGPT выросло с 300 млн в 2024 году до 700 млн в 2025 году.
Как защитить свои данные при работе с ИИ? Рассказываем об особенностях настроек ChatGPT, Claude, Gemini и Copilot.
Уже есть LIGA PRO? Войдите