Чат-боты с ИИ не прошли проверку с фейковыми видео от Sora

ЮФ
Чат-боты, использующие технологии искусственного интеллекта (ИИ), продемонстрировали неспособность к идентификации видеороликов, сгенерированных нейросетью Sora от OpenAI. Такие данные содержатся в отчете исследовательской организации NewsGuard от 22 января.
В ходе испытаний Grok, созданный компанией миллиардера Илона Маска xAI, допустил ошибки в 95% случаев. Gemini от Google показал результат в 78% неверных определений. ChatGPT, разработанный OpenAI, в 92,5% случаев ошибочно воспринимал фейковые видео как подлинные.
Такие результаты были получены при удалении с видео логотипов и водяных знаков Sora. При сохранении водяных знаков Gemini безошибочно определял сгенерированные видео во всех случаях, Grok – в 30%, а ChatGPT – только в 7,5%. В одном случае ChatGPT даже сообщил, что видео было создано несуществующим новостным агентством Sora News.
Отдельное тестирование Grok проводилось на видео, созданных нейросетью Nano Banana Pro, разработанной xAI. Выяснилось, что бот запрограммирован распознавать фейковые видео, созданные продуктом той же компании.
Вскоре после выхода Sora и заявления OpenAI о том, что видео будут снабжены водяными знаками, ряд компаний предложил бесплатные инструменты для их удаления.
