Учёные из Техасского университета (г. Остин) разработали метод «машинного отучения» для изображений, используемых ИИ. Это позволит эффективно удалять изображения с пометкой «насилие» и авторские материалы без необходимости переобучения модели.
Ранее единственным способом удалить упомянутый контент являлось создание модели с нуля. Теперь можно будет избежать этого, сохраняя остальные данные в модели.
ИИ обучается на данных из Сети, что включает в себя авторские материалы, личную информацию и нежелательный контент. Недавний иск The New York Times к OpenAI за использование статей издания в обучающих данных подчёркивает актуальность проблемы.
Исследование сосредоточено на моделях преобразования изображений, которые, среди прочего, могут превращать вводное изображение в эскиз или изменять сцену в соответствии с указаниями. Новый алгоритм позволяет модели «забывать» или удалять контент по запросу. Модерация осуществляются людьми, что добавляет ещё один уровень проверки и возможность реагировать на отзывы пользователей.
«Машинное отучение» (Machine unlearning) — это развивающееся направление, ранее применявшееся преимущественно к классификационным моделям, определяющим категории данных, например, отличающим собак от кошек. Применение такого подхода к генеративным моделям, особенно в плоскости изображений, является относительно новым и малоизученным.