Искусственный интеллект способен сделать вероятность глобальной пандемии в 5 раз выше, предупреждают авторы нового отчёта Rand Corporation.

Их выводы основаны на моделировании сценариев биотерроризма и утечек из лабораторий, усиленных генеративными ИИ-технологиями.

Исследование заказано Агентством перспективных оборонных исследований США (DARPA) и напрямую касается этики и регулирования развития больших языковых моделей.

Модели вроде ChatGPT могут значительно упростить процесс проектирования и распространения биологического оружия.

Авторы указывают, что ИИ способен помочь в выборе патогена, синтезе ДНК, подборе условий хранения и доставки, а также в обходе существующих мер контроля.

Исследование основано на оценке гипотетических злоумышленников, получивших доступ к ИИ-системам с открытым API, обученным на материалах из научных публикаций.

Даже при ограниченном уровне технической подготовки у них появлялись пошаговые инструкции по созданию опасных агентов — например, вируса оспы.

Иллюстрация: ChatGPT Ключевой риск заключается в том, что ИИ может снижать «барьер доступа» к биологическим атакам.

Ранее такие действия требовали высокой квалификации и значительных ресурсов, но теперь ИИ-подсказки могут компенсировать нехватку знаний.

Особенно опасна возможность автоматической генерации и проверки вариантов биологических агентов с оптимизированными характеристиками заразности и устойчивости.

Отдельные LLM уже сейчас способны подбирать материалы и методы, имитирующие научные эксперименты.

Rand подчёркивает: речь идёт не только о террористических группировках, но и о случайных ошибках.

Лаборатории, использующие ИИ для ускорения исследований, могут непреднамеренно создать и выпустить в окружающую среду опасный патоген.

Влияние таких утечек может оказаться масштабнее COVID-19, особенно при отсутствии должного контроля и этических ограничений.

Отдельное внимание в докладе уделено необходимости регулирования: учёные призывают ввести запреты на доступ к биотехнической информации в LLM, внедрить фильтры на «биоопасный» контент, а также обеспечить аудит моделей, используемых в научных разработках.

Кроме того, важно пересмотреть принципы публикации биологических данных в открытом доступе.

В отчёте нет однозначного сценария, но его общий вывод: если развитие ИИ продолжится без учёта биологических рисков, то вероятность новой пандемии в ближайшие десятилетия вырастет кратно.

При этом технологии, которые должны помогать в лечении и профилактике, могут непреднамеренно стать катализатором биологических угроз.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *