Манипуляции в Photoshop: ИИ от Adobe легко определит

Использование специальных программных инструментов и комплексов типа Photoshop при обработке изображений (фотографий) уже давно не инновация, однако развитие технологий в этом направлении делает этот процесс всё более простым и быстрым. Однако не всё идёт в правильное русло, сейчас стало возможно создание инструментов с технологией ИИ, которые подделывают фотографии и даже видео. Можно на видео человека произнести слова, которые он никогда не произносил, и это будет очень реалистично.

ИИ в борьбе с подделками

Сегодня противодействие поддельным новостям и ложной информации является важнейшей задачей, поскольку скорость распространения данный постоянно растёт. Что касается поддельных изображений (в тех же новостях), то компания Adobe решила, что пора объединяться с учёными, чтобы создать систему, базирующуюся на технологии ИИ, которая с высочайшей точностью и скоростью обнаруживать наличие манипуляций с лицами на фотографиях, отредактированных при помощи ПО вроде фотошопа.

В своём блоге Adobe написала, что, когда дебютировал Photoshop чуть менее 30 лет назад, был сделан важный шаг в сторону демократизации самовыражения, а также творчества. Программа с тех пор оказала сильное влияние на творчество в целом и на визуальную культуру нашего общества, в частности. Компания гордится тем, насколько ощутимо влияние на мир Photoshop, а также другого инструментария Adobe. Вместе с этим разработчик признаёт и всё возможные этические последствия развития подобных технологий. Доверять тому, что видит человек, это очень важно сейчас, особенно в том мире, в котором стало возможно редактирование изображений быстро и массово. Поддельные фотографии (а также видео) становятся всё большей проблемой.

Разработчики Adobe постоянно в поисках наиболее полезных\ответственных методов воплощения новых технологий в нашу жизнь. Исследуется применимость самых передовых технологий, таких как ИИ, чтобы удержать и даже повысить доверие к цифровым медиа.

Против манипуляций

Новый проект Adobe, в который инвестирует немалые средства Управление перспективными исследованиями от Минобороны США DARPA в рамках программы MediFor (так называемая медиа криминалистика и аналитика), пока ещё на ранних этапах. Суть проекта заключается в создании и обучении сверхточного алгоритма ИИ или нейросети, или формы глубокого машинного обучения (CNN), которая будет способна в реальном времени распознавать лица на фотографиях и видеоматериалах, которые подвергались изменениям в результате цифровых манипуляций. Сейчас уже создана обширная обучающая база изображений, написан специальный скрипт для Photoshop, который используется интегрированный фильтр FAL на десятках и сотнях тысячах изображений, которые есть в открытом доступе в глобальной сети.

Совершеннее человеческого глаза

Примечательно, созданный специалистами Adobe метод распознавания оказался гораздо более совершенным, чем связка «человеческий глаз – человеческий мозг». Причём, если брать проверенный фильтр FAL из фотошоп, то человек, применяя его к изображению, определит манипуляцию только в половине случаев, тогда как новый алгоритм ИИ не ошибается в 99 процентах случаев, точно определяя даже малейшие манипуляции. В планах не просто констатировать наличие манипуляций, но и указание на характер, что меняли и зачем, при этом конечная цель – вернуть всё в исходное состояние (приблизить к оригиналу).


Поделись мнением о статье "Манипуляции в Photoshop: ИИ от Adobe легко определит", предложи свой вариант в комментариях! Спасибо!


Добавить комментарий

Ваш e-mail не будет опубликован.