На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

FiNE NEWS

2 041 подписчик

Свежие комментарии

  • Evgeni Velesik
    "Политик Олег Царёв.. " Вопрос: чьей страны политик?«Физически больно...
  • Ингерман Ланская
    кроме как в "интердевочке" ,боле нигде не вспоминается... вот и весь "мастер"Мастер эпизода: к...
  • Михаил Васильев
    Беременные - они точно больные!Беременная Сиена ...

Реальное видео от сгенерированного отличат по специальной «подписи»

Реальное видео от сгенерированного отличат по специальной «подписи»

Российские ученые-программисты разрабатывают технологию, которая бы позволила закладывать специальную «подпись» или водяной знак в видео, сгенерированные посредством искусственного интеллекта. Об этом директор Института системного программирования им. В.П. Иванникова РАН, академик Арутюн Ишханович Аветисян рассказал в докладе на конференции GRID’2025 в Объединенном институте ядерных исследований 7 июля.

«Весь мир сейчас движется в том направлении, что в генеративных ИИ обязательно должен внедряться механизм водяных знаков. Open AI уже сказали, что пока регуляторно они не могут этого требовать, потому что технологий соответствующего уровня пока нет. Но уже и европейцы, и китайцы, и мы движемся именно этим путем», — подчеркнул А.И. Аветисян.

Ученый отметил, что отечественные компании уже занимаются разработкой технологий, которые бы давали возможность отслеживать происхождение сгенерированного видео, то есть использованную для этого нейросеть. При этом многие проблемы в этой задаче пока не решены: открытым остается вопрос, можно ли добавить «подпись» в данные, на которых будет обучаться модель.

Однако команда А.И. Аветисяна рассчитывает, что в сотрудничестве со Сбером сможет найти необходимый технологический ответ.

«Зачем это нужно компаниям? Потому что даже сейчас очень много случаев, когда публикуется политически ангажированный или порнографический контент, а потом его создатели заявляют, что видео было создано при помощи Сбербанка или еще кого-то. Компании хотят защититься от этого, и государство, понятно, тоже должно быть защищено. Технологии водяных знаков позволят всем нам проще администрировать информационное пространство», — объяснил академик.

При этом А.И. Аветесян заострил внимание на том, что технологически, без подписи, отличить дипфейк от реальной видеозаписи невозможно. Да, существуют и разрабатываются детекторы, но они всегда будут в позиции «догоняющих». Еще недавно технология были передовые работы, где определяли подделку по пульсу на лице То есть можно было определить дипфейк, потому что пульс на лице и другой части тела отличался. Сейчас же технологии дошли до того уровня, что и пульс может быть подделан.

«Я на всякий случай подчеркну: я не за криминализацию искусственного интеллекта! Я за то, чтобы мы, как потребители, были защищены. Когда я смотрю что-нибудь, я должен иметь возможность нажать клавишу и знать — смотрю ли я реальное видео или нет.

Запреты — это не наш путь, но знать, как гражданин, я должен», — подвел итог академик.

Арутюн Ишханович Аветисян — математик, специалист в области системного программирования, доктор физико-математических наук, академик РАН, директор Института системного программирования им. В.П. Иванникова РАН.  Под руководством и при непосредственном участии ученого были получены фундаментальные, не имеющие аналогов в России результаты в области безопасности программного обеспечения. Заведует кафедрами системного программирования факультета вычислительной математики и кибернетики МГУ им. М.В. Ломоносова, факультета управления и прикладной математики МФТИ и факультета компьютерных наук НИУ ВШЭ.

Новость подготовлена при поддержке Министерства науки и высшего образования РФ 

Источник
Ссылка на первоисточник
наверх