Коротко
- Американские чиновники предупредили крупные банки о рисках кибербезопасности, связанных с ИИ-моделью Mythos от Anthropic, сообщает Bloomberg.
- По сообщениям, система может выявлять и использовать уязвимости в операционных системах и браузерах.
- Anthropic ограничила доступ к модели, пока оценивает потенциальные риски безопасности.
Министр финансов США Скотт Бессент и председатель Федеральной резервной системы Джером Пауэлл, как сообщается, созвали на этой неделе встречу с генеральными директорами банков Уолл-стрит, чтобы предупредить о рисках кибербезопасности, связанных с новой моделью искусственного интеллекта от Anthropic.
Согласно отчёту Bloomberg, на встрече присутствовали руководители Citigroup, Bank of America, Wells Fargo, Morgan Stanley и Goldman Sachs. Чиновники обсудили новую ИИ-модель Anthropic Mythos, которая недавно вызвала широкую обеспокоенность из-за её очевидных передовых возможностей в области кибербезопасности.
Чиновники созвали встречу, чтобы убедиться, что банки понимают риски, создаваемые системами, способными выявлять и использовать уязвимости программного обеспечения в операционных системах и веб-браузерах, а также призвать учреждения укрепить защиту от потенциальных кибератак с помощью ИИ, нацеленных на финансовую инфраструктуру.
Исследователи в области безопасности предупредили, что инструменты, способные автоматически обнаруживать уязвимости, могут ускорить как защитную работу в сфере безопасности, так и вредоносный взлом в случае неправильного использования.
Модель Mythos от Anthropic впервые появилась в интернете в марте после того, как черновые материалы о системе просочились онлайн, раскрыв то, что компания описала как свою самую мощную ИИ-модель на сегодняшний день. В ходе тестирования система, как сообщается, обнаружила тысячи ранее неизвестных уязвимостей программного обеспечения, включая уязвимости нулевого дня в основных операционных системах и веб-браузерах.
Исследователи Anthropic заявили в отчёте ранее на этой неделе, что возможности Mythos Preview по обнаружению уязвимостей не были специально обучены, а вместо этого появились в результате более широких улучшений в кодировании, рассуждении и автономности модели.
«Те же улучшения, которые делают модель значительно более эффективной в исправлении уязвимостей, также делают её значительно более эффективной в их использовании», — написала компания.
Из-за этих возможностей Anthropic ограничила доступ небольшой группе организаций по кибербезопасности.
«Учитывая силу её возможностей, мы тщательно продумываем, как её выпустить», — заявила Anthropic в заявлении. «Как это является стандартной практикой в отрасли, мы работаем с небольшой группой клиентов с ранним доступом для тестирования модели. Мы считаем эту модель шагом вперёд и самой мощной, которую мы создали на сегодняшний день».
Чтобы справиться с этим риском, Anthropic тестирует Mythos через Project Glasswing — сотрудничество с крупными технологическими компаниями и компаниями в области кибербезопасности, которое использует модель для выявления и исправления уязвимостей в критически важном программном обеспечении до того, как злоумышленники смогут их использовать.
«Project Glasswing — это отправная точка. Ни одна организация не может решить эти проблемы кибербезопасности в одиночку», — заявила компания в заявлении. «Разработчики передовых ИИ, другие компании-разработчики программного обеспечения, исследователи безопасности, сопровождающие проектов с открытым исходным кодом и правительства по всему миру — все они играют важную роль».
Anthropic не сразу ответила на запрос Decrypt о комментарии.
Ежедневная рассылка новостей
Начинайте каждый день с главных новостей прямо сейчас, а также оригинальных статей, подкаста, видео и многого другого.
Источник: https://decrypt.co/363927/powell-bessent-warn-banks-security-anthropic-mythos-ai








