Как защитить свои фото от нейросетей

- КиТ :: Будь в СЕТИ!

Представьте, что вы – художник или фотограф, который публикует свои работы в сети. И внезапно вы обнаруживаете, что нейросеть использует ваши изображения в качестве референса, тем самым нарушая ваши авторские права. Как защитить свою работу от ИИ?

Например, два самых известных генератора изображений Midjourney и Stability Diffusion обучены на наборе данных LAION-5B с открытым исходным кодом, содержащем миллиарды картинок со всего интернета. Их обучающая программа представляет собой что-то вроде гигантской таблицы Excel, в которой собраны URL-адреса изображений и подписи к ним. Если ваша работа размещена в Интернете, то она вполне может попасть в этот список и использоваться для тренировки ИИ. При этом ваше согласие не требуется.

Чтобы не попасть в подборку изображений для обучения искусственного интеллекта, стоит предпринять следующие действия.

1. Написать отказ от включения в обучающие наборы

Вы можете отследить использование своих изображений и запретить их применение для обучения ИИ. Этим вопросом занимается международная группа художников Spawning. На их сайт haveibeentrained.com можно поискать свои работы в наборах данных LIAON-5B и заполнить форму отказа от использования.

Spawning собирает заявления и передает списки LIAON, чтобы изображения были удалены из коллекций.

К сожалению, пока это работает только с LIAON, и другие компании, занимающиеся разработкой и обучением ИИ, все еще смогут использовать ваше искусство.

2. Публиковать работы в DeviantArt

Популярная онлайн-галерея по умолчанию защищает своих авторов от нейросетей. Ваше изображение после загрузки получает тэг NoAI (No Artificial Intelligence), который обозначает вас как автора-человека и одновременно предохраняет от попадания в списки для обучения. Если выяснится, что ИИ использует ваше изображение, это будет прямым нарушением условий DeviantArt.

3. Заблокировать сканеры сайтов

Материал для обучения нейросетей подбирают поисковые роботы, которые прочесывают интернет на предмет подходящих изображений. Если вы публикуете фото на собственном сайте, то не забудьте встроить в его код файл Robots.txt, который запрещает поисковым роботам просматривать определенные страницы и файлы. Это защитит вас от попадания в списки для обучения ИИ.

Но имейте в виду, что такие же роботы могут использоваться и поисковыми системами. Потому главное – не переусердствовать, чтобы ваш сайт не перестал индексироваться вовсе.

Пока, увы, разработчики искусственного интеллекта могут игнорировать любые запреты, но вы бы будете знать, что сделали все для своей защиты. Кроме того, сейчас возникает все больше судебных прецедентов, когда авторы отстаивают свои права. Так, в начале 2023 года на компании, стоящие за Stability AI и Midjourney подала в суд большая группа художников, в том числе известная автор комиксов Сара Андерсен. Кроме того в суд обратился и сайт Getty Images, чьи изображения без разрешения были использованы Stability AI.


Candy CMG 2393 DW /10

Очень надёжная. Справляется со своими обязанностями отлично. Служит уже более 15 лет. Единственная поломка была это перегоревший высоковольтный предохранитель, который без особого труда заменили...

Samsung LW-20M11C /10

На дворе 12 февраля 2023 года. Телевизор служит примерно года 2006. Пережил работу практически 24/7 и служит верой и правдой по сей день. На удивление спокойно через костыли подружился с ТВ приставкой.

ПодпискаБудь в СЕТИ! Новости социальных сетей - всегда актуальное
 
Группы: ВК | OK | Tg