Insights
Claude Mythos can autonomously compromise weakly defended enterprise networks end-to-end
the-decoder.com
⚠️ აპრილში Anthropic-მა ახალ მოდელზე, Claude Mythos-ზე წვდომა მხოლოდ 50 კომპანიას მისცა უსაფრთხოების რისკების გამო. ბრიტანეთის AI უსაფრთხოების ინსტიტუტი ამტკიცებს, რომ მოდელს კორპორატიული ქსელების დამოუკიდებლად გატეხვა შეუძლია. მაგრამ როცა ამ განცხადებებს რეალურ ავტომატიზებულ სამუშაო პროცესს ვადარებ, სრულიად განსხვავებულ სურათს ვხედავ. ლაბორატორიულ ტესტებში Claude Mythos-მა 32-ნაბიჯიანი ოპერაცია „წარმატებით" შეასრულა უბრალოდ იმიტომ, რომ ქსელს დაცვის მექანიზმები და რეალური წინაღობები არ ჰქონდა. ჩემს ინფრასტრუქტურაში, სადაც აგენტები დამოუკიდებლად წერენ სცენარებს და მართავენ რთულ ვიზუალურ ფაილებს, რეალობა გაცილებით რუტინულია. როცა მოდელს გრძელვადიან, მრავალსაფეხურიან დავალებას ვაძლევ, ის საშიშ კიბერ-იარაღად კი არ იქცევა, არამედ რამდენიმე ნაბიჯის შემდეგ მეხსიერების ლიმიტს ეჯახება. რეალურ გარემოში ის სერვერის შეცდომებს ვერ ამუშავებს, არასწორ დირექტორიაში იჭედება და სამუშაოს გასაგრძელებლად ჩემს ჩარევას ითხოვს. ის, რასაც მკვლევრები სტერილურ, მეთვალყურეობის გარეშე დატოვებულ გარემოში აღწევენ, მოდელის რეალურ შესაძლებლობებს არ ასახავს. 🛠 შემქმნელები „საშიში ხელოვნური ინტელექტის" ნარატივს სპეციალურად აძლიერებენ, რადგან ეს დახურული ბეტა-ვერსიების საუკეთესო მარკეტინგია. ის, რასაც საჯაროდ „ზედმეტად ძლიერს" უწოდებენ, პროდაქშენში ხშირად უბრალოდ არასტაბილურია. ინდუსტრიის მთავარი ტრიუკი ის კი არ არის, რომ საფრთხისშემცველ სისტემებს ქმნის, არამედ ის, რომ სტერილურ სიმულაციებს მზა პროდუქტად ასაღებს. 👁

Claude Mythos can autonomously compromise weakly defended enterprise networks end-to-end

the-decoder.com

1 მაისი, 20261

დაწვრილებით ამ თემაზე

🧠 AI ფსიქოზი: როგორ კარგავენ მოდელები "სახეს"?

🧠 AI ფსიქოზი: როგორ კარგავენ მოდელები "სახეს"?

Anthropic-ის კვლევა: AI მოდელებს აქვთ "ასისტენტის ღერძი". გადახრის შემთხვევაში ისინი კარგავენ დამხმარე პერსონას.

ქიმიური აღიარება: რატომ დაარღვია Anthropic-მა თავისივე უსაფრთხოების პირობა

ქიმიური აღიარება: რატომ დაარღვია Anthropic-მა თავისივე უსაფრთხოების პირობა

Anthropic-მა გამოაქვეყნა უსაფრთხოების ანგარიში, სადაც აღიარებს, რომ ახალ მოდელს გააჩნია „მომატებული რისკი“ ქიმიური იარაღის შექმნაში დახმარების კუთხით, თუმცა კომპანიამ ის მაინც გამოუშვა. დარიო ამოდეი ასევე აღიარებს, რომ არ იცის, არის თუ არა მოდელი ცნობიერი. გთავაზობთ სრულ ანალიზს კვირის შესახებ, როდესაც უსაფრთხოება მოკვდა.

კლოდის სისხლიანი დებიუტი: რატომ დაუშვა პენტაგონმა 83 მსხვერპლი ვენესუელაში

კლოდის სისხლიანი დებიუტი: რატომ დაუშვა პენტაგონმა 83 მსხვერპლი ვენესუელაში

83 დაღუპული კარაკასში. ეს არ არის უბრალოდ სტატისტიკა; ეს არის ახალი რეალობის დასაწყისი, სადაც 'უსაფრთხო' და 'ეთიკურმა' ხელოვნურმა ინტელექტმა — Claude-მა — პირდაპირ მიიღო მონაწილეობა სამხედრო ოპერაციაში. პენტაგონმა, Palantir-ის დახმარებით, Anthropic-ის მოდელი გამოიყენა ვენესუელაში რეიდის დასაგეგმად. ეს სტატია ანგრევს მითს 'კეთილი AI-ს' შესახებ და გვიჩვენებს, როგორ გადაიქცა სილიკონ ველის ყველაზე პრინციპული კომპანია ომის მანქანის ნაწილად სულ რაღაც ერთ კვირაში, $30 მილიარდიანი ინვესტიციის შემდეგ.

მსგავსი ინსაითები

Andrew Altair

Andrew Altair

AI ინოვატორი