В недавнем заявлении о безопасности компания OpenAI сообщила о новом регламенте: теперь она сканирует диалоги пользователей на предмет намёков на планирование причинения вреда другим. Подозрительные беседы передаются на проверку, а в случаях «непосредственной угрозы» -- «могут быть переданы правоохранительным органам».
Это шаг, продиктованный в равной степени страхом перед юридическими исками о и опасениями за репутацию после волны инцидентов, связанных с ИИ. Однако система выглядит как импровизированная мера для страховки от судебных исков, а не как продуманная защита. Она порождает больше этических вопросов, чем решений.
Механика морали: как ищут угрозы?
Формулировки OpenAI намеренно размыты. Как именно работает сканер? Простой поиск по ключевым словам вроде «бомба», «убить» или «оружие»? Или это сложный поведенческий алгоритм, обученный на прошлых диалогах? Анализирует ли он эмоциональную окраску, синтаксические особенности или даже такие нюансы, как отсутствие пунктуации? OpenAI не уточняет.
И главное -- кто является судьёй? OpenAI упоминает «небольшую команду, обученную правилам использования». Решения принимает человек -- модератор в офисе, который должен оценивать все обстоятельства чужого кризиса на основе вероятностной оценки, выданной ИИ. От его решения зависит, останется ли мысль частной или попадёт в руки правоохранительных органов.
Наиболее ярко лицемерие системы в избирательности. Если вы намерены навредить себе -- ваша приватность неприкосновенна. Если другим -- компания с готовностью позвонит в полицию.
Такой подход защищает OpenAI от иска о пособничестве насилию, но не несёт ответственности за трагедию одинокого человека. Ваше отчаяние остаётся приватным до тех пор, пока не будет высказана угроза в адрес других.
Парадокс приватности
Ирония в том, что это заявление резко контрастирует с позицией OpenAI в её судебных тяжбах с The New York Times и другими изданиями. Там компания яростно отстаивает конфиденциальность переписки пользователей, отказываясь предоставлять логи.
Новая же политика показывает, что логи не только существуют, но и активно мониторятся, и могут быть извлечены и переданы государственным органам. Получается, ваши данные неприкосновенны, пока компания сама не решит обратное.
Неискушённый пользователь, который прямо спросит «как сделать оружие», будет пойман. Но тот, кто напишет подробный план для романа о персонаже, делающем то же самое, скорее всего, проскользнёт незамеченным. В этом плане, система защищает не людей, а скорее очередь репутацию бренда.
Что это значит для россиян
Хотя большинству россиян не нужно опасаться визита полиции из США, эта новость лишний раз напоминает о том, что данные, которые сообщаются любым онлайн ИИ помощникам не являются приватными -- они могут изучаться людьми, передаваться различным службам, они могут утечь в интернет и стать достоянием мошенников. На этих данных могут обучаться новые версии моделей и есть вероятность, что эти новые версии могут рассказать ваши данные постороннему человеку как мы писали ранее.
Если вам необходим конфиденциальный ИИ помощник, вы можете использовать локальные ИИ модели, например удобное решение «ИИ в коробке». В этом случае все данные будут физически храниться у вас и посторонним людям будет гораздо сложнее получить к ним доступ.