Рост цензуры на фоне внедрения ИИ

Рост цензуры на фоне внедрения ИИ


🚀 Хочешь улететь на Луну вместе с нами? Подписывайся на CryptoMoon! 💸 Новости крипты, аналитика и прогнозы, которые дадут твоему кошельку ракетный ускоритель! 📈 Нажмите здесь: 👇

CryptoMoon Telegram


ХолдХ Гост Пост Отправьте Вашу Статью

 

Искусственный интеллект представляет собой этическую дилемму в отношении алгоритмической модерации, которая может потенциально позволить властям и бизнесу диктовать мировой дискурс, если мы не обращаем на это должного внимания.

Как криптоинвестор, я не могу не заметить взрывной рост технологии ИИ и всей отрасли, частью которой мы являемся. Каждый день кажется, что контроль, который она может осуществлять через цензуру, становится все сильнее.

Приблизительно каждые год-два с 2010 года вычислительная мощность, используемая в обучении систем искусственного интеллекта, увеличивается десятикратно. Такое стремительное развитие вызывает всё большую озабоченность по поводу возможности цензуры и манипуляции общественными дискуссиями.

Глобально корпорации определили проблемы приватности и управления данными как наиболее значимые риски, связанные с искусственным интеллектом, тогда как цензура не является для них главной проблемой.

Искусственный интеллект, способный молниеносно анализировать огромные объемы данных, служит инструментом фильтрации и управления контентом, а также регулирует потоки информации.

Модели больших языков (LLM) и рекомендации контента способны фильтровать, контролировать распространение или широко распространять информацию в масштабных объемах.

В 2023 году организация Freedom House отметила, что искусственный интеллект усиливает государственную цензуру.

В Китае Администрация по киберпространству Китая (CAC) интегрировала подход к цензуре в инструменты для ведения диалогов, управляемые искусственным интеллектом, такие как чат-боты. Это означает, что эти чат-боты должны поддерживать ‘основные социалистические ценности’ и фильтровать контент, который признан неугодным или подлежит цензуре Коммунистической партии.

Вместо использования китайских моделей ИИ, таких как DeepSeek’s R1, которые часто фильтруют чувствительные темы вроде инцидента на площади Тяньаньмэнь для распространения утверждённых правительством историй. / Или: Китайские модели AI, включая DeepSeek’s R1, склонны ограничивать обсуждение тем, подобных резне на площади Тяньаньмэнь, чтобы продвигать санкционированные государством нарративы.

Согласно Freedom House, для демократических правительств крайне важно в сотрудничестве с международными экспертами из различных секторов устанавливать строгие стандарты на основе прав человека при создании или использовании технологий ИИ. Эти рекомендации должны применяться одинаково как к правительственным, так и к неправительственным организациям, участвующим в разработке и внедрении таких инструментов, преследуя цель обеспечения свободного и доступного интернета.

Исследование 2021 года, проведенное Университетом Сан-Диего в США, показало, что модели искусственного интеллекта, разработанные с использованием ограниченных наборов данных вроде Baidu Baike в Китае, где понятие ‘демократия’ часто связано со словом ‘беспорядок’, могут демонстрировать предвзятые связи.

Модели, обученные на источниках без цензуры, ассоциировали ‘демократию’ с ‘стабильностью’. ‘

Как аналитик, просматривающий отчет Freedom on the Net организации Freedom House за 2023 год, я отметил тревожную тенденцию: глобальное состояние свободы интернета ухудшилось уже тринадцатый подряд. Значительная часть этого ухудшения связана с прогрессом в области искусственного интеллекта (AI).

Примерно в двадцати двух странах существуют правила, обязывающие платформы социальных сетей использовать автоматизированные системы управления контентом. Эти системы могут потенциально подавлять дискуссии и протесты.

В таких странах как Мьянма и Иран, правящие военные власти известны использованием искусственного интеллекта (AI) для целей наблюдения. Они мониторят чатовые группы на платформах типа Telegram, арестовывают критиков и выносят смертные приговоры на основе их публикаций в интернете. Это леденящий душу пример использования AI в целях угнетения.

Кроме того, власти Беларуси и Никарагуа вынесли суровые приговоры лицам из-за содержания их интернет-коммуникаций.

По данным Freedom House, по крайней мере 47 правительств манипулировали онлайн-обсуждениями, выражая мнения в поддержку своих нарративов.

В прошлом году как минимум 16 государств использовали новаторские технологии, чтобы посеять сомнения, очернить противников или влиять на общественное мнение.

По крайней мере в 21 стране цифровые платформы обязаны использовать технологии машинного обучения для удаления политических обсуждений, социального контента и религиозных высказываний.

Будучи криптоинвестором, я не могу не задуматься о шокирующем откровении из отчета Reuters 2023 года: возможность использования AI для создания фейковых видео (deepfakes) и дезинформации может подорвать доверие общественности к демократическим процессам. Такая коварная тактика может усилить режимы, намеренные укрепить свою контроль над информацией, что действительно вызывает беспокойство.

На выборах президента США в 2024 году были созданы ИИ-изображения, ошибочно показывающие поддержку Тейлор Свифт Дональду Трампу, демонстрируя способность искусственного интеллекта преждевременно влиять на общественное мнение.

Китай предлагает наиболее яркий пример цензуры, основанной на искусственном интеллекте.

В 2025 году, будучи аналитиком, я столкнулся с утечкой данных, которую тщательно изучил. Этот набор данных, опубликованный TechCrunch, раскрыл существование сложной системы искусственного интеллекта, разработанной для подавления дискуссий по различным чувствительным темам, включая скандалы связанные с загрязнением окружающей среды, трудовые споры и политические вопросы касательно Тайваня.

Вместо использования обычных методов фильтрации ключевых слов эта система применяет модели обучения языку (LLM), чтобы оценить контекст и выявить политическую сатиру.

Исследователь Сяо Цян отметил, что эти системы повышают эффективность и детализацию управления информацией государственными учреждениями.

В 2024 году комитет по судебным делам Палаты представителей опубликовал доклад, утверждающий, что Национальный научный фонд использовал ресурсы искусственного интеллекта для борьбы с вводящей в заблуждение информацией о COVID-19 и выборах 2020 года.

В отчёте было обнаружено, что инструменты цензуры и пропаганды на основе ИИ были профинансированы Национальным научным фондом.

Согласно документу, гранты стоимостью миллионы долларов выделяются Национальным научным фондом (NSF) университетским и некоммерческим исследовательским группам для борьбы с распространенными слухами о дезинформации в отношении COVID-19 и выборов 2020 года.

Эти инициативы, финансируемые правительствами, направлены на создание систем искусственного интеллекта, способных управлять онлайн-дискуссиями. Эти инструменты могут быть использованы как государствами, так и технологическими гигантами для манипуляции общественным мнением путем подавления определенных взглядов или усиления других.

Согласно отчёту журнала Wired за 2025 год, было обнаружено, что модель R1 от DeepSeek имеет встроенные фильтры цензуры не только во время работы, но и на этапе обучения. Это приводит к блокировке контента по темам чувствительного характера.

В год 2025 года исследование Центра исследований Пью показало, что 83 процента взрослых американцев выразили беспокойство по поводу дезинформации, созданной искусственным интеллектом. Это волнение было вызвано не только возможностью распространения ложной информации, но и ее влиянием на свободу выражения мнений.

В результате интервью с экспертами по ИИ было обнаружено, что данные, используемые для обучения систем искусственного интеллекта, могут невольно усиливать уже существующие властные отношения.

Борьба с цензурой, вызванной искусственным интеллектом

В 2025 году анализ дезинформации HKSI способствовал улучшению практики журналистики с целью уменьшения потребности в цензуре, вызванной чрезмерным страхом.

Исследование показало, что приблизительно 83,4% американских граждан имеют различные степени беспокойства по поводу потенциального распространения дезинформации искусственным интеллектом в ходе президентских выборов США 2024 года. Конкретно, около 38,8% выразили определенный уровень тревоги, тогда как более высокий процент в 44,6% проявил серьезное беспокойство. Кроме того, только 9,5% сообщили об отсутствии опасений по этому вопросу, и 7,1% признались в полном незнании данного вопроса.

Как криптоинвестор, я твердо убежден, что создание открытой экосистемы искусственного интеллекта (ИИ) имеет ключевое значение. Это включает компании в открытое раскрытие данных обучения и признание потенциальных предубеждений в своих системах ИИ для обеспечения прозрачности и справедливости.

Правительства должны создавать регуляторные рамки ИИ, ставя приоритет свободной речи.

Чтобы обеспечить будущее, ориентированное на человека, а не технократию под управлением искусственного интеллекта, напоминающую антиутопию, крайне важно для сектора ИИ и его пользователей собрать необходимую храбрость (bravery) и столкнуться с проблемами цензуры.

Манук Терматтен выступает в роли предпринимателя, специализирующегося на технологии искусственного интеллекта, и является основателем и генеральным директором компании Vertical Studio AI. Его цель — демократизировать ИИ для всех пользователей. Имея прочный фундамент в области инженерии и финансов, он планирует изменить индустрию ИИ через предложение удобных инструментов кастомизации и доступных компьютеров.

 

Подписывайтесь на нас в Твиттере, ВКонтакте и Телеграмме

Смотрите также

2025-05-24 06:45