Как ИИ ставит под угрозу ЛГБТК+ пользователей

Как ИИ ставит под угрозу ЛГБТК+ пользователей

время чтения: 6 мин

Про искусственный интеллект сейчас звучит из каждого утюга. Кстати, не исключено, что ваш утюг тоже обладает ИИ. Для ЛГБТК+ людей, особенно в авторитарных странах, это может быть вопросом личной безопасности.

Кто-то видит в нейросетях удобный инструмент, кто-то – источник новых проблем. Но одну вещь уже сложно игнорировать: сервисы на базе ИИ всё чаще оказываются небезопасными.

И речь не только про абстрактные “риски будущего”. Утечки данных, слабая защита аккаунтов, сбор чувствительной информации, проблемы с конфиденциальностью переписки – всё это происходит уже сейчас.

Как ИИ ставит под угрозу ЛГБТК+ пользователей

Почему вообще стоит говорить про ИИ и цифровую безопасность 

Когда мы говорим про современные ИИ-инструменты – чат-боты, генераторы картинок, голосовых помощников или “агентов” – чаще всего мы говорим о системах, построенных на больших языковых моделях.

Если проще: это модели, обученные на огромных массивах текста, изображений и других данных. Они умеют отвечать на вопросы, писать тексты, анализировать информацию, помогать с задачами. Но при этом они работают не в пустоте. Им нужны данные, доступы, история запросов, интеграции с другими сервисами. А значит, возникает вопрос: насколько всё это безопасно.

Чтобы понять проблему, удобно смотреть на три аспекта:

Конфиденциальность.

Целостность.

Доступность.

Это классическая модель цифровой безопасности. В контексте ИИ она помогает задать очень простой вопрос.

Что произойдёт с вашей информацией, если сервис даст сбой, утечёт база, кто-то получит доступ к аккаунту или начнёт использовать ваши данные не так, как вы ожидали

Для ЛГБТК+ людей это особенно важно. Потому что в чат-боты могут попадать очень личные вещи: разговоры о здоровье, отношениях, идентичности, страхах, эмиграции, безопасности, психологическом состоянии.

И если такой разговор перестаёт быть приватным, последствия могут быть очень реальными.

Как ИИ ставит под угрозу ЛГБТК+ пользователей

Как ИИ может нарушать конфиденциальность 

Если говорить совсем просто, конфиденциальность – это когда ваша информация не доступна посторонним.

Проблема в том, что многие ИИ-инструменты изначально не выглядят как что-то особенно защищённое. Люди используют их для самых разных задач: от общения и эмоциональной поддержки до медицинских и рабочих вопросов. А компании, организации и даже госструктуры всё активнее встраивают такие инструменты в повседневные процессы.

Но защита там часто слабее, чем хотелось бы.

Например, не у всех популярных ИИ-приложений есть действительно надёжная защита аккаунта. Это значит, что чужой человек может получить доступ к учётной записи проще, чем кажется.

Кроме того, уже были случаи крупных утечек. В начале 2025 года исследователи нашли открытую базу данных компании DeepSeek, где оказались история чатов пользователей, секретные ключи и другая чувствительная информация. А ещё раньше злоумышленник получил доступ к личным данным пользователей OpenAI через стороннего подрядчика. Речь шла об именах, электронных адресах, данных о местоположении, браузерах и операционных системах.

То есть проблема не в том, что “когда-нибудь что-то может случиться”. Проблема в том, что это уже случается.

Как ИИ ставит под угрозу ЛГБТК+ пользователей

Даже инструменты “для защиты” могут собирать ваши данные

Отдельно тревожит то, что сервисы, которые обещают безопасность, сами могут становиться источником риска.

Исследователи безопасности нашли расширения для браузеров с VPN и “защитой от ИИ”, которые на деле собирали всё, что люди вводили в ИИ-сервисы: запросы, ответы, метаданные, время, а также сведения о том, какими именно ИИ-инструментами человек пользовался. После этого данные передавались брокерам.

Для ЛГБТК+ аудитории это особенно чувствительно. Потому что вопрос не только в том, что именно вы написали, но и в самом факте: какими сервисами вы пользуетесь, какие темы вас интересуют, что вы ищете, с какими вопросами обращаетесь. В репрессивной среде даже такой “цифровой фон” может многое рассказать о человеке.

Как ИИ ставит под угрозу ЛГБТК+ пользователей

Почему частные разговоры с ИИ – это не всегда частные разговоры

Есть ещё одна большая проблема: многие чат-боты не используют сквозное шифрование как стандарт.

Это значит, что история ваших разговоров потенциально может быть доступна сервису, подрядчикам, а в некоторых случаях – и по запросу в рамках судебных процессов.

Сейчас, например, в США New York Times требует доступ к миллионам разговоров пользователей с ChatGPT в рамках иска против OpenAI. Каким бы ни был повод, сам факт такого требования показывает, насколько уязвимыми могут быть эти данные.

Для людей, которые обсуждают с ИИ личные темы — аутинг, ВИЧ-статус, отношения, эмиграцию, насилие, страх преследования, — это важный сигнал: не стоит считать такие сервисы пространством по умолчанию безопасной и защищённой исповеди.

Что меняется, когда ИИ встраивают в мессенджеры

Ещё тревожнее становится, когда ИИ встраивают в уже привычные приложения.

Например, Meta добавила своего ИИ-бота в WhatsApp. Формально сам WhatsApp использует сквозное шифрование, но проблема в том, что, если собеседник обращается к Meta AI внутри чата, часть разговора может выйти за рамки этой защищённости и пройти через серверы Meta.

То есть вы можете не хотеть вовлекать ИИ в переписку, но другой участник чата делает это — и ваш разговор уже не выглядит таким приватным, как раньше.

Формально можно включать дополнительные настройки конфиденциальности, но проблема в том, что ответственность снова перекладывают на пользователя. Причём не один раз, а вручную и отдельно для разных чатов.

Для ЛГБТК+ людей это особенно опасная логика. Потому что в чувствительной переписке вопрос не в “удобно или неудобно”, а в том, что любое снижение приватности может затронуть не только вас, но и другого человека.

Как ИИ ставит под угрозу ЛГБТК+ пользователей

Почему ИИ-агенты — это отдельный риск

Сейчас всё чаще продвигают идею ИИ-агентов — помощников, которым можно поручать действия от своего имени. Например, что-то бронировать, кому-то писать, искать, анализировать, принимать решения.

На первый взгляд это выглядит как удобство. Но по сути это означает, что такому инструменту нужно дать очень широкий доступ: к вашим приложениям, сообщениям, файлам, истории действий, возможно, даже к платежам и личным данным.

И тут возникает главный вопрос: что будет, если этот доступ получит система, которую можно обмануть, взломать или направить не туда?

Эксперты по цифровой безопасности предупреждают, что это создаёт огромную поверхность для атак. Если ИИ получает доступ к приватным данным, видит ненадёжный контент и может взаимодействовать с внешними системами, появляется реальная угроза утечки ваших данных дальше.

Иначе говоря: чем “умнее” и самостоятельнее обещают сделать ИИ, тем важнее помнить, что за удобством может стоять новая уязвимость.

Как ИИ ставит под угрозу ЛГБТК+ пользователей

Есть ли хорошие решения

На сегодня хорошие, по-настоящему безопасные решения всё ещё скорее редкость, чем норма.

Есть проекты с открытым исходным кодом, которые пытаются строить ИИ-инструменты с большим уважением к конфиденциальности. Некоторые из них используют сквозное шифрование и делают акцент на защите пользовательских запросов и ответов.

Но массовый рынок движется в другую сторону: больше интеграций, больше сбора данных, больше навязанных функций, меньше понятной прозрачности.

И это не случайность. Такие проблемы возникают не потому, что “технологии ещё сырые”, а потому что компании часто ставят скорость, прибыль и конкуренцию выше безопасности.

Что важно для ЛГБТК+ людей

Для ЛГБТК+ аудитории, особенно в Беларуси и других несвободных странах, разговор про ИИ — это не только про технологии.

Это про то, можно ли безопасно спросить что-то о своём здоровье.
Можно ли обсудить идентичность.
Можно ли искать информацию об эмиграции, терапии, ВИЧ, правах, отношениях, насилии или поддержке без страха, что эти данные потом всплывут не там, где нужно.

Честный ответ звучит так: с большой осторожностью

Если сервис на базе ИИ не объясняет внятно, как защищены ваши данные, не использует сильные механизмы безопасности и встроен в экосистему, где приватность уже не раз оказывалась под вопросом, лучше не относиться к нему как к безопасному пространству для очень личных тем.

Как ИИ ставит под угрозу ЛГБТК+ пользователей

Что можно вынести из этого уже сейчас

Главная мысль простая: ИИ — это не нейтральный и не автоматически безопасный помощник.

Он может быть удобным. Может быть полезным. Но если речь идёт о чувствительной информации, особенно о вещах, которые касаются ЛГБТК+ идентичности, здоровья, отношений, эмиграции или безопасности, стоит помнить: эти инструменты могут подвести.

И пока индустрия не показывает, что готова ставить права человека и безопасность выше роста и прибыли, разумная осторожность остаётся не паникой, а базовой цифровой гигиеной.

 

Текст написан в рамках Gpress.info Special Safety Project

Изображения сгенерированы нейросетью. Промты — Gpress.info

 

Подписывайтесь на наш Telegram-канал!

ЛГБТК-миграция. Большой путеводитель по переезду в безопасную страну

Смотрите интересные видео в нашем Instagram-канале