Уже сейчас кадры, появляющиеся в сети, могут оказаться нейросетьюПоделиться
Фото: СКФУ
Эксперт Северо-Кавказского федерального университета (СКФУ) рассказал, как критическое мышление помогает распознавать ИИ-контент. Уже сейчас кадры, появляющиеся в сети, могут быть сгенерированы нейросетью. Необычные видео, фото оказываются обманом. Искусственный интеллект активно развивает медийную осознанность, пишет, рисует и даже говорит. Отличить реальность от подделки становится все сложнее.
«В эпоху искусственного интеллекта особенно важно не терять бдительность. Проверяйте изображения и видео через сервисы обратного поиска, сравнивайте факты из разных источников, не доверяйте слишком идеальным кадрам и громким словам. Нейросети умеют имитировать реальность, но критическое мышление все еще остается лучшей защитой от обмана», – рассказал начальник управления по информации и связям с общественностью СКФУ Максим Тизенгаузен.
Зрение может обмануть человека, ведь нейросети могут нарисовать лицо лучше, чем объектив камеры. Чтобы не стать жертвой иллюзии ИИ, следует обращать внимание на детали. На картинках и фото стоит смотреть на пальцы, уши и тени. В мелочах часто можно заметить несовпадения и ошибки генеративной модели. Также выдают идеальная кожа, неестественные глаза, глянцевый блеск; нечитаемые надписи, размытый, как во сне, фон.

Фото: СКФУ
На видео насторожить должен рассинхрон губ и речи, замороженная мимика. Свет и тени также могут жить по своим немыслимым законами. Это и выдает дипфейк.
Аудио и голос выдает синтетическая речь, звучащая слишком ровно. Без вздохов, пауз и запинок. Стерильные эмоции, отсутствие бытового фонового шума. Это явные признаки ИИ.
При этом стоит сказать, что нейросети – вовсе не зло. Они способны помогать людям, упрощать рабочие процессы и даже вдохновлять. Но они требуют ответственности. Разработчикам необходимо добиться прозрачности продукта, медиа – помечать, что материал ИИ, а пользователю надо быть внимательным.
Источник: www.stav.kp.ru