Нейросеть осваивает искусство создания ИИ-двойников

Платформа Character.AI, известная своими ИИ-персонажами для общения, представила новую технологию генерации видео - AvatarFX. Этот сервис, находящийся на стадии закрытого бета-тестирования, способен анимировать как виртуальных собеседников платформы (включая реалистичные образы людей и 2D-анимацию), так и создавать видео из загруженных изображений, включая фотографии реальных людей. 

Как передает Day.Az, об этом сообщает издание TechCrunch.

Технология AvatarFX позволяет преобразовывать как текстовые описания, так и статичные изображения в анимированные видеоролики с возможностью применения различных визуальных стилей и вариантов озвучивания. Ключевым отличием от некоторых других решений на рынке, таких как Sora от OpenAI, является возможность генерации видео не только на основе текста, но и из загруженных изображений.

Способность анимировать фотографии реальных людей вызывает опасения, связанные с потенциальным созданием так называемых "дипфейков", открывая возможность для генерации видео с изображениями публичных личностей или даже знакомых пользователей без их согласия.

В Character.AI заявляют о внедрении ряда мер безопасности, направленных на минимизацию рисков злоупотреблений. К ним относятся нанесение водяных знаков на сгенерированные видео, система блокировки контента с несовершеннолетними, механизмы фильтрации изображений реальных людей для снижения степени их узнаваемости, а также распознавание и потенциальное ограничение использования фотографий известных политиков и знаменитостей.

Впрочем, Character.AI уже сталкивается с вызовами в области безопасности своей основной платформы. Против стартапа были поданы иски от родителей, утверждающих, что общение с чат-ботами сервиса побуждало их детей к самоповреждению и другим опасным действиям.

В ответ на подобные обвинения компания заявляет о работе над улучшением родительского контроля и внедрении дополнительных защитных механизмов. Однако появление технологии генерации видео может сделать взаимодействие пользователей, особенно молодых, с виртуальными персонажами еще более реалистичным и эмоционально вовлекающим, что потенциально повышает риски манипуляций. Эксперты отмечают, что даже самые совершенные инструменты контроля эффективны лишь при условии их правильного использования и осведомленности со стороны взрослых, при этом существует вероятность того, что дети могут скрывать использование подобных ИИ-сервисов от своих родителей.