Безопасность ИИ 31 января 2025 12 мин чтения

ИИ и конфиденциальность данных

Как обезопасить свою компанию при использовании искусственного интеллекта

В последнее время всё чаще приходится слышать о том, что использование искусственного интеллекта — это удобно, но рискованно. Особенно когда речь заходит о конфиденциальности данных.

Многие компании активно внедряют ИИ в свою работу: для анализа документов, генерации текстов, поддержки клиентов, обработки запросов. Но не все задумываются, куда попадают эти данные и кто к ним имеет доступ.

⚠️ Проблема: данные могут остаться навсегда

Случай с OpenAI

Недавно стало известно, что OpenAI по решению суда теперь обязан хранить даже удалённые чаты пользователей — в том числе и те, которые пользователи явно просили удалить. Это связано с судебным процессом, который обвиняет компанию в использовании своих материалов для обучения ИИ без разрешения.

Суд постановил, что на время разбирательства все данные, включая переписки по финансовым, юридическим, медицинским и личным вопросам, должны быть сохранены. При этом в июне 2025 года суд отклонил просьбы пользователей об исключении таких данных из хранения, заявив, что доступ к ним ограничен. Ранее OpenAI хранил удалённые диалоги 30 дней, а теперь этот срок стал бессрочным — как минимум до окончания процесса.

🔍 Ключевая проблема

Получается, даже если вы удалили чат — он остаётся у провайдера. И неизвестно, когда и будет ли он действительно удалён.

Аналогичные риски есть и у других крупных провайдеров. Например, в Китае из-за уязвимости в системе DeepSeek произошла утечка миллионов конфиденциальных сообщений. При этом китайские платформы часто не обеспечивают достаточного уровня прозрачности и защиты данных.

Кроме того, почти все облачные ИИ-сервисы могут использовать ваши запросы для дообучения моделей. Даже если компания заявляет, что этого не делает, соблазн воспользоваться данными велик — ведь качественные данные сейчас в дефиците. А в ряде случаев можно даже получить из модели исходные данные, на которых она обучалась, в неизменном виде — такие инциденты уже фиксировались.

🔧 Что делать?

1. Использовать открытую модель

Одним из вариантов решения является использование open-source модели, которые будут работать на вашем оборудовании. Если 2-3 года назад такое решение не было реалистичным из-за космической стоимости оборудования и низкого качества открытых моделей, то сегодня открытые модели часто не так сильно уступают по качеству проприетарным решениям, и могут быть запущены на оборудовании стоимостью до 200 тыс рублей (а в ряде случаев и значительно меньше).

Например, Qwen3-coder по качеству уже не уступает Claude Sonnet 4 (подробнее — в нашем разборе на сайте).

Но тут возникают другие сложности: нужно подбирать оборудование, настраивать окружение, обеспечивать безопасность, поддерживать работоспособность. Кроме того, существующие интерфейсы для таких моделей зачастую сырые, неудобные и лишены привычного функционала: проектов, анализа файлов, совместной работы, поиска, составления отчетов, персонализации и памяти.

🎯 Купить готовое и настроенное решение

Наша компания собрала готовое решение для бизнеса, которому важно использовать ИИ, но при этом контролировать свои данные.

«ИИ в коробке» — это программно-аппаратный комплекс, который подключается к локальной сети. После настройки сотрудники получают доступ к ИИ через веб-интерфейс.

🧠
Современные open-source модели
📁
Поддержка загрузки файлов, проектов, истории диалогов
👤
Персонализация и память
🔍
Функции глубокого поиска и анализа данных
🤖
Интеграция с ИИ агентами
🔒
Никакие данные не уходят за пределы компании
🌐
Нет зависимости от внешних API
⚖️
Нет риска трансграничной передачи ПД

Решение не требует глубокой технической подготовки для запуска. Мы настраиваем оборудование, устанавливаем ПО, помогаем с интеграцией и проводим обучение сотрудников эффективным практикам работы с ИИ.

Готовы обезопасить свои данные?

Получите консультацию по внедрению безопасного ИИ в вашу компанию

Получить консультацию