W skrócie
- Urzędnicy USA ostrzegli główne banki o zagrożeniach cyberbezpieczeństwa związanych z modelem AI Mythos firmy Anthropic, donosi Bloomberg.
- System może podobno identyfikować i wykorzystywać luki w systemach operacyjnych i przeglądarkach.
- Anthropic ograniczył dostęp do modelu, oceniając potencjalne zagrożenia bezpieczeństwa.
Sekretarz Skarbu USA Scott Bessent i przewodniczący Rezerwy Federalnej Jerome Powell podobno zwołali na początku tego tygodnia spotkanie z prezesami banków z Wall Street, aby ostrzec o zagrożeniach cyberbezpieczeństwa związanych z nowym modelem sztucznej inteligencji firmy Anthropic.
Według raportu Bloomberg, w spotkaniu uczestniczyli dyrektorzy z Citigroup, Bank of America, Wells Fargo, Morgan Stanley i Goldman Sachs. Urzędnicy omawiali nowy model AI Mythos firmy Anthropic, który ostatnio wywołał szerokie obawy ze względu na jego zaawansowane możliwości w zakresie cyberbezpieczeństwa.
Urzędnicy zwołali spotkanie, aby zapewnić, że banki rozumieją zagrożenia stwarzane przez systemy zdolne do identyfikowania i wykorzystywania luk w oprogramowaniu w systemach operacyjnych i przeglądarkach internetowych, oraz aby zachęcić instytucje do wzmocnienia obrony przed potencjalnymi cyberatakami wspieranymi przez AI, które mogą być skierowane na infrastrukturę finansową.
Badacze bezpieczeństwa ostrzegali, że narzędzia zdolne do automatycznego wykrywania luk mogą przyspieszyć zarówno pracę nad bezpieczeństwem defensywnym, jak i złośliwe włamania, jeśli zostaną niewłaściwie wykorzystane.
Model Mythos firmy Anthropic po raz pierwszy pojawił się w sieci w marcu, po tym jak wyciekły online materiały robocze dotyczące systemu, ujawniając to, co firma opisała jako swój najbardziej zaawansowany model AI. Podczas testów system podobno znalazł tysiące wcześniej nieznanych luk w oprogramowaniu, w tym luki zero-day w głównych systemach operacyjnych i przeglądarkach internetowych.
Badacze z Anthropic powiedzieli w raporcie na początku tego tygodnia, że możliwości wykrywania luk przez Mythos Preview nie były celowo wytrenowane, ale zamiast tego wyłoniły się z szerszych ulepszeń w kodowaniu, rozumowaniu i autonomii modelu.
"Te same ulepszenia, które czynią model znacznie bardziej efektywnym w łataniu luk, czynią go również znacznie bardziej efektywnym w ich wykorzystywaniu" - napisała firma.
Ze względu na te możliwości Anthropic ograniczył dostęp do małej grupy organizacji zajmujących się cyberbezpieczeństwem.
"Biorąc pod uwagę siłę jego możliwości, jesteśmy ostrożni w kwestii sposobu jego wydania" - powiedział Anthropic w oświadczeniu. "Jak to jest standardową praktyką w całej branży, współpracujemy z małą grupą klientów z wczesnym dostępem, aby przetestować model. Uważamy, że ten model to przełom i najbardziej zaawansowany, jaki zbudowaliśmy do tej pory."
Aby zaradzić temu zagrożeniu, Anthropic testuje Mythos w ramach Projektu Glasswing, współpracy z dużymi firmami technologicznymi i cyberbezpieczeństwa, która wykorzystuje model do identyfikowania i łatania luk w krytycznym oprogramowaniu, zanim atakujący będą mogli je wykorzystać.
"Projekt Glasswing to punkt wyjścia. Żadna organizacja nie może samodzielnie rozwiązać tych problemów z cyberbezpieczeństwem" - powiedziała firma w oświadczeniu. "Deweloperzy przełomowej AI, inne firmy programistyczne, badacze bezpieczeństwa, osoby utrzymujące open-source i rządy na całym świecie mają do odegrania kluczowe role."
Anthropic nie odpowiedział natychmiast na prośbę Decrypt o komentarz.
Newsletter Daily Debrief
Rozpocznij każdy dzień od najważniejszych wiadomości, a także oryginalnych treści, podcastu, filmów i nie tylko.
Źródło: https://decrypt.co/363927/powell-bessent-warn-banks-security-anthropic-mythos-ai








