Что настоящее, а что ИИ: Microsoft представила план проверки контента в интернете | |
|
Компания Microsoft разработала систему маркировки и цифровой проверки AI-контента, но пока не обязалась внедрять ее полностью.
Корпорация Microsoft предложила новый подход к подтверждению подлинности онлайн-контента на фоне стремительного распространения материалов, созданных или измененных с помощью искусственного интеллекта. В то же время компания пока не обязалась внедрить эти рекомендации в собственных продуктах. Об этом говорится в MIT Technology Review.
Поэтому исследовательская команда Microsoft по безопасности ИИ подготовила техническую «дорожную карту», которая должна помочь отличать настоящий контент от измененного. Как это будет работатьСпециалисты проанализировали около 60 различных комбинаций методов цифровой проверки — от метаданных и водяных знаков до криптографических подписей, чтобы выяснить, какие инструменты остаются надежными даже в случаях частичных изменений файла или умышленных манипуляций. Принцип проверки Microsoft сравнивает с экспертизой картины Рембрандта. То есть нужно иметь подтверждение происхождения, скрытый машиносчитываемый знак и цифровой «отпечаток», который подтверждает оригинальность. По словам главного научного сотрудника компании Эрика Горвица, толчком к работе стали как новые законодательные инициативы, в частности, закон штата Калифорния о прозрачности ИИ, так и быстрое развитие технологий, способных создавать гиперреалистичные видео и аудио. Впрочем, Горвиц подчеркнул: речь идет не об определении правдивости контента, а о его происхождении. «Это не о том, чтобы решать, что правда, а что нет. Это о маркировании, которое показывает, откуда взялся материал», — объяснил он. Введет ли Microsoft собственные стандартыНесмотря на амбициозность инициативы, Microsoft не гарантирует полного внедрения этих стандартов в своей экосистеме. Компания управляет сервисом Copilot, облачной платформой Azure, профессиональной сетью LinkedIn, а также имеет значительную долю в OpenAI. В компании отметили, что исследование уже влияет на обновление продуктов, однако конкретные обязательства по обязательной маркировке всего AI-контента не предоставили. Ограничение технологийЭксперты подчеркнули, что даже самые лучшие системы проверки не определяют, является ли информация правдивой. Они лишь фиксируют факт редактирования или создания материала с помощью ИИ. Профессор цифровой криминалистики из Калифорнийского университета Гани Фарид считает, что внедрение таких стандартов значительно усложнило бы массовое распространение манипуляций. Однако целиком проблему это не решит. Исследования также свидетельствуют, что даже когда пользователям сообщают об искусственном происхождении контента, это не всегда уменьшает его влияние. Регулирование и политикаНовые правила маркирования AI-контента уже готовятся в Европейском Союзе и ряде других стран. Калифорнийский закон может стать первым масштабным тестом эффективности подобных инструментов в США. Однако слишком поспешное или неточное внедрение систем проверки может подорвать доверие к ним. Исследователи Microsoft предостерегают: в некоторых случаях лучше не показывать никакую маркировку, чем демонстрировать ошибочную. На фоне глобального роста количества дипфейков и манипулятивных материалов вопрос цифровой аутентичности становится не только технологическим, но и политическим вызовом. И хотя инициатива Microsoft может задать новый стандарт, ее реальное влияние будет зависеть от того, готовы ли сами технологические гиганты применять эти правила к собственным продуктам. | |
| 22.02.2026 в 17:24 | |
| Комментариев нет. |
|

