Insights
Don’t make Marshal Foch’s mistake on AI | Letters
theguardian.com
⚠️ პირველი მსოფლიო ომის გმირმა, მარშალმა ფერდინანდ ფოშმა თვითმფრინავებს ერთხელ „ჰობისტების სათამაშო" უწოდა. დღეს Guardian-ში გამოქვეყნებულ წერილში, ავტორი პერეგრინ რენდი ამ ისტორიულ სიბრმავეს ხელოვნური ინტელექტის აღქმას ადარებს. მაგრამ როცა ყოველდღიურად ავტომატიზებულ სარეკლამო სისტემებთან ვმუშაობ, ვხედავ, რომ მთავარი პრობლემა სრულიად სხვა რამეშია. ხალხი იმაზე წუხს, რომ ტექნოლოგია ზედმეტად ჭკვიანი და საშიში ხდება, თუმცა რეალურ პროდაქშენში სრულიად საპირისპიროს ვაწყდები. კლიენტის ბოლო პროექტზე Claude-მა ტექსტი იდეალურად დამიწერა, მაგრამ როცა ვიზუალიზაცია Grok-ს მივანდე, მოდელმა ავტომობილის ბორბლებს კვადრატული ფორმა მისცა. 🎬 სირთულე ის კი არ არის, რომ სისტემა დამოუკიდებლად აზროვნებს, არამედ ის, რომ საბაზისო ფიზიკის კანონებს გამუდმებით არღვევს. შესაბამისად, დროის უდიდეს ნაწილს ტექნოლოგიის განვითარებით ტკბობაზე კი არა, სწორედ ამ მცდარი კადრების ხელით, სათითაოდ გასწორებაზე ვხარჯავ. ისტორიული შეცდომა ტექნოლოგიის „სათამაშოდ" მიჩნევა სულაც არ არის. ნამდვილი შეცდომა მისი დაუმთავრებელი, ქაოსური ვერსიების სრულყოფილ პროდუქტად გასაღებაა. 🛠 დღეს ინდუსტრიაში ის კი არ იმარჯვებს, ვისაც ყველაზე დახვეწილი ინსტრუმენტი აქვს, არამედ ის, ვინც მის სულელურ შეცდომებს ყველაზე სწრაფად ასწორებს. 🎯

Don’t make Marshal Foch’s mistake on AI | Letters

theguardian.com

30 აპრილი, 20262

დაწვრილებით ამ თემაზე

🧠 AI ფსიქოზი: როგორ კარგავენ მოდელები "სახეს"?

🧠 AI ფსიქოზი: როგორ კარგავენ მოდელები "სახეს"?

Anthropic-ის კვლევა: AI მოდელებს აქვთ "ასისტენტის ღერძი". გადახრის შემთხვევაში ისინი კარგავენ დამხმარე პერსონას.

ქიმიური აღიარება: რატომ დაარღვია Anthropic-მა თავისივე უსაფრთხოების პირობა

ქიმიური აღიარება: რატომ დაარღვია Anthropic-მა თავისივე უსაფრთხოების პირობა

Anthropic-მა გამოაქვეყნა უსაფრთხოების ანგარიში, სადაც აღიარებს, რომ ახალ მოდელს გააჩნია „მომატებული რისკი“ ქიმიური იარაღის შექმნაში დახმარების კუთხით, თუმცა კომპანიამ ის მაინც გამოუშვა. დარიო ამოდეი ასევე აღიარებს, რომ არ იცის, არის თუ არა მოდელი ცნობიერი. გთავაზობთ სრულ ანალიზს კვირის შესახებ, როდესაც უსაფრთხოება მოკვდა.

კლოდის სისხლიანი დებიუტი: რატომ დაუშვა პენტაგონმა 83 მსხვერპლი ვენესუელაში

კლოდის სისხლიანი დებიუტი: რატომ დაუშვა პენტაგონმა 83 მსხვერპლი ვენესუელაში

83 დაღუპული კარაკასში. ეს არ არის უბრალოდ სტატისტიკა; ეს არის ახალი რეალობის დასაწყისი, სადაც 'უსაფრთხო' და 'ეთიკურმა' ხელოვნურმა ინტელექტმა — Claude-მა — პირდაპირ მიიღო მონაწილეობა სამხედრო ოპერაციაში. პენტაგონმა, Palantir-ის დახმარებით, Anthropic-ის მოდელი გამოიყენა ვენესუელაში რეიდის დასაგეგმად. ეს სტატია ანგრევს მითს 'კეთილი AI-ს' შესახებ და გვიჩვენებს, როგორ გადაიქცა სილიკონ ველის ყველაზე პრინციპული კომპანია ომის მანქანის ნაწილად სულ რაღაც ერთ კვირაში, $30 მილიარდიანი ინვესტიციის შემდეგ.

მსგავსი ინსაითები

Andrew Altair

Andrew Altair

AI ინოვატორი