Ученые разработали систему защиты для искусственного интеллекта, который генерирует изображения по тексту. Эта разработка помогает выявлять опасные или неэтичные запросы пользователей.
В статье, опубликованной изданием Tech Xplore, сказано, что система обучена анализировать текстовые запросы и выявлять в них вредные концепции, даже если они переформулированы. Она действует как дополнительный фильтр, который предотвращает создание нежелательных изображений с помощью нейросети.