OpenAI работает над новым инструментом, который поможет вам обнаружить изображения, созданные ИИ, и защитит вас от глубоких подделок.
9 мая 2024 г.Вы, вероятно, заметили несколько изображения, созданные искусственным интеллектом, разбросаны по всем вашим лентам в социальных сетях. Вероятно, некоторые из них, которые вы, вероятно, прокрутили прямо мимо, могли ускользнуть от вашего острого взгляда.
Для тех из нас, кто был погружен в мир генеративного ИИ, обнаружить изображения ИИ немного проще, поскольку вы составляете мысленный контрольный список того, на что следует обращать внимание.
Однако по мере того, как технологии становятся все лучше и лучше, сказать об этом будет все труднее. Чтобы решить эту проблему, OpenAI разрабатывает новые методы отслеживания изображений, созданных ИИ. и доказать, что было создано искусственно, а что нет.
Согласно запись в блоге, новые предлагаемые методы OpenAI добавят защищенный от несанкционированного доступа «водяной знак». это будет помечать контент невидимыми «наклейками». Итак, если изображение создано с помощью Генератор DALL-E OpenAI, классификатор пометит его, даже если изображение искажено или насыщено.
Блог В сообщении утверждается, что инструмент будет иметь точность около 98% при обнаружении изображений, сделанных с помощью DALL-E. Однако он будет отмечать только 5–10% изображений из других генераторов, таких как Adobe Firefly.
Итак, он отлично подходит для собственных изображений, но не очень хорош для всего, что создано за пределами OpenAI. Хотя в некоторых отношениях это может быть не так впечатляюще, как можно было бы надеяться, это положительный знак того, что OpenAI начинает бороться с потоком изображений ИИ, которые становится все труднее и труднее различить.
Хорошо, итак, это Некоторым это может показаться не таким уж большим делом, поскольку многие изображения, сгенерированные ИИ, являются либо мемами, либо концептуальным искусством, которые довольно безобидны. Но, тем не менее, сейчас также наблюдается всплеск сценариев, когда люди создают гиперреалистичные фальшивые фотографии политиков, знаменитостей, людей из их жизни и т. д., что может привести к невероятно быстрому распространению дезинформации.
Надеемся, что по мере того, как такого рода контрмеры будут становиться все лучше и лучше, точность будет только улучшаться, и у нас появится гораздо более доступный способ перепроверить подлинность изображений, с которыми мы сталкиваемся в повседневной жизни. жизнь.
Вам также может понравиться
- 5 тонких анонсов искусственного интеллекта, которые Apple сделала на большом мероприятии по презентации iPad 2024
- Сора из OpenAI только что сняла еще одно умопомрачительное музыкальное видео, и мы видим тема
- Может ли генеративный ИИ работать без кражи данных в Интернете? ChatRTX от Nvidia стремится доказать, что это возможно
Оригинал