Топ-100 Развитие DeepSeek может повысить риск для безопасности - Pro город будущего

Развитие DeepSeek может повысить риск для безопасности

Согласно отчету экспертов по искусственному интеллекту, вероятность вредоносного использования систем ИИ возрастает. Ведущий автор исследования предупреждает, что инновации, включая DeepSeek, могут повысить риск для безопасности.

Канадский математик, кибернетик и информатик Йошуа Бенжио, которого считают одним из отцов-основателей современного ИИ, заявил, что достижения DeepSeek могут стать тревожным сигналом в области, где доминируют США.

Бенджио считает, что американские компании могут сосредоточиться на возвращении лидерства, а не на безопасности. Компания OpenAI, разработчик ChatGPT, пообещала ускорить выпуск продуктов.

«Если у вас соревнование между двумя организациями, и одна считает, что она намного впереди, то она может быть более осмотрительной. Но если они считают, что другая находится на том же уровне, то им нужно ускориться. Тогда, возможно, они не будут уделять столько внимания безопасности», — цитирует Бенджио The Guardian.

Первый полный международный отчет о безопасности ИИ был составлен группой из 96 экспертов, включая лауреата Нобелевской премии Джеффри Хинтона. Бенджио, в 2018 году получивший премию Тьюринга, возглавил работу над отчетом, который был представлен на глобальном саммите по безопасности ИИ в Блетчли-Парке в 2023 году. Членов комиссии выдвинули 30 стран, ЕС и ООН. Следующий глобальный саммит пройдет в Париже 10 и 11 февраля.

В отчете говорится, что системы ИИ стали более эффективными в «областях, актуальных для вредоносного использования», включая выявление уязвимостей в ПО и предоставление рекомендаций по производству биологического оружия.

Новые модели ИИ могут генерировать технические инструкции по созданию патогенов и токсинов, превосходящие возможности экспертов с докторской степенью. OpenAI признала, что ее модель o1 может помочь специалистам в планировании создания биологических угроз.

В беседе с Guardian Бенджио сказал, что уже появились модели, которые теоретически могут с помощью камеры смартфона помогать людям выполнять опасные задачи, например, создавать биологическое оружие.

«Эти инструменты становятся все более простыми в использовании для неспециалистов, потому что они разбивают сложную задачу на мелкие этапы и помогают их выполнять. Это сильно отличается от использования, скажем, поиска Google», — сказал он.

Системы ИИ значительно улучшили способность самостоятельно выявлять уязвимости в ПО, что может помочь хакерам планировать кибератаки.

Однако автономная реализация атак пока не по силам системам ИИ из-за «исключительного уровня точности».

Также в отчете указывается на увеличение количества дипфейков, включая обман компаний с целью получения денег и шантажа, а также создание порнографических изображений. Оценить точный уровень роста сложно из-за отсутствия статистики.

Существует риск злонамеренного использования моделей с закрытым исходным кодом, которые могут быть уязвимы для взломов, и моделей с открытым исходным кодом, таких как Llama от Meta, которые можно модифицировать.

 

В Массачусетсе ИИ дал возможность заглянуть в будущее

Компания Samsung презентовала нового робота с ИИ

Чат-боты стали давать больше неверных ответов