Согласно отчету экспертов по искусственному интеллекту, вероятность вредоносного использования систем ИИ возрастает. Ведущий автор исследования предупреждает, что инновации, включая DeepSeek, могут повысить риск для безопасности.
Канадский математик, кибернетик и информатик Йошуа Бенжио, которого считают одним из отцов-основателей современного ИИ, заявил, что достижения DeepSeek могут стать тревожным сигналом в области, где доминируют США.
Бенджио считает, что американские компании могут сосредоточиться на возвращении лидерства, а не на безопасности. Компания OpenAI, разработчик ChatGPT, пообещала ускорить выпуск продуктов.
«Если у вас соревнование между двумя организациями, и одна считает, что она намного впереди, то она может быть более осмотрительной. Но если они считают, что другая находится на том же уровне, то им нужно ускориться. Тогда, возможно, они не будут уделять столько внимания безопасности», — цитирует Бенджио The Guardian.
Первый полный международный отчет о безопасности ИИ был составлен группой из 96 экспертов, включая лауреата Нобелевской премии Джеффри Хинтона. Бенджио, в 2018 году получивший премию Тьюринга, возглавил работу над отчетом, который был представлен на глобальном саммите по безопасности ИИ в Блетчли-Парке в 2023 году. Членов комиссии выдвинули 30 стран, ЕС и ООН. Следующий глобальный саммит пройдет в Париже 10 и 11 февраля.
В отчете говорится, что системы ИИ стали более эффективными в «областях, актуальных для вредоносного использования», включая выявление уязвимостей в ПО и предоставление рекомендаций по производству биологического оружия.
Новые модели ИИ могут генерировать технические инструкции по созданию патогенов и токсинов, превосходящие возможности экспертов с докторской степенью. OpenAI признала, что ее модель o1 может помочь специалистам в планировании создания биологических угроз.
В беседе с Guardian Бенджио сказал, что уже появились модели, которые теоретически могут с помощью камеры смартфона помогать людям выполнять опасные задачи, например, создавать биологическое оружие.
«Эти инструменты становятся все более простыми в использовании для неспециалистов, потому что они разбивают сложную задачу на мелкие этапы и помогают их выполнять. Это сильно отличается от использования, скажем, поиска Google», — сказал он.
Системы ИИ значительно улучшили способность самостоятельно выявлять уязвимости в ПО, что может помочь хакерам планировать кибератаки.
Однако автономная реализация атак пока не по силам системам ИИ из-за «исключительного уровня точности».
Также в отчете указывается на увеличение количества дипфейков, включая обман компаний с целью получения денег и шантажа, а также создание порнографических изображений. Оценить точный уровень роста сложно из-за отсутствия статистики.
Существует риск злонамеренного использования моделей с закрытым исходным кодом, которые могут быть уязвимы для взломов, и моделей с открытым исходным кодом, таких как Llama от Meta, которые можно модифицировать.