Вы уже видели эти невероятные видео от Sora? На экране телефона в реалистичность сложно не поверить. Можно воплотить любую фантазию и заставить говорить человека именно то, что нужно вам, в любой локации.

Искусственный интеллект, особенно такой мощный для создания видео, как Sora, – это не просто крутой инструмент для творчества. Это оружие в инфовойне, способное создавать убедительную ложь в масштабах, которые мы раньше не могли представить.
Фейковые новости, мошенничество, компромат – всё это теперь можно «снять» без камеры и актеров.

Что делать? Как отличить?
Компания OpenAI, создавшая Sora, понимает эту угрозу. Поэтому они приняли важный шаг: все видео, сгенерированные Sora, будут помечаться.

Вот на что стоит обратить внимание:
Ищите на видео значок! В идеале, будет отображаться специальная иконка (надпись, что данное видео сгенерировано при помощи ИИ и т.п.).
Пока эта система еще не везде внедрена, действуют старые-добрые правила медиаграмотности:
1. Источник важнее всего. Кто это опубликовал? Проверенный медиа-бренд или паблик с котиками, который внезапно начал заниматься политикой?
2. Не верьте шоку. Шокирующий контент – главная цель фейкомётов. Если видео вызывает у вас сильные эмоции (гнев, страх, удивление) – это повод для паузы и проверки, а не для мгновенного репоста.
3. Включайте критическое мышление. Спросите себя: «А это вообще физически возможно? Не странные ли тут тени, движения людей, физика объектов?»
Технологии не стоят на месте. И наш «ментальный иммунитет» к дезинформации должен становиться только сильнее.

Доверяйте, но проверяйте. А лучше – проверяйте всегда.

Народный Антифейк