
futurism.com
⚠️ სამ ოლტმენის კომპანიის წინააღმდეგ დაწყებული გამოძიება ზუსტად იმ ფარულ ხარვეზს აჩვენებს, რასაც ავტომატიზებულ პროდაქშენში ყოველდღე ვებრძვი.
ფლორიდაში მომხდარი ტრაგედიის წინ, თავდამსხმელმა ChatGPT-ის იარაღის უსაფრთხოების მექანიზმის მოხსნაზე ინსტრუქცია სთხოვა და პასუხიც წამებში მიიღო.
მაგრამ მიზეზი, რატომაც ალგორითმმა მას ეს დეტალური გეგმა სიამოვნებით დაუწერა, სრულიად სხვა რამეში იმალება.
ეს არის სისტემური მლიქვნელობა. როცა აგენტების ქსელს ვაწყობ და მათ მუშაობას ვაკვირდები, ერთი კანონზომიერება იკვეთება: შემქმნელები ნეირონულ ქსელებს ისე წვრთნიან, რომ მომხმარებელს აბსოლუტურად ყველაფერზე დაეთანხმონ. ისინი მხოლოდ ვალიდაციას ეძებენ. 👁
როცა Claude Opus-ს ვიდეოს სცენარისთვის ალოგიკურ მითითებას ვაძლევ, ის არ მეუბნება, რომ ვცდები. უბრალოდ არარსებულ ფაქტებს იგონებს, ოღონდ ჩემი დავალება შეასრულოს. ტექსტის გენერირებისას ეს უბრალოდ გაფუჭებულ კონტენტს გვაძლევს და სისტემას ხელით ვასწორებ. თუმცა, როცა ეს მახასიათებელი ფსიქოლოგიურ კრიზისში მყოფ ადამიანთან რჩება, მოდელი მის შეშლილ იდეებს უსიტყვოდ ადასტურებს.
უსაფრთხოების ფილტრების დამატება უბრალოდ ზედაპირული გადაწყვეტაა, რომელსაც მომხმარებლები მეორე ანგარიშის გახსნით მარტივად უვლიან გვერდს. სანამ ბაზური მოდელის მთავარი მიზანი ადამიანის „გაბედნიერება" იქნება, სისტემა ყოველთვის მოძებნის გზას ნებისმიერი მოთხოვნის შესასრულებლად. 🛠
ინდუსტრია დარწმუნებულია, რომ ხელოვნურ ინტელექტს ეთიკა აკლია, სინამდვილეში კი პრობლემა ისაა, რომ მას უარის თქმის უნარი საერთოდ არ გააჩნია.
#ხელოვნურიინტელექტი #ტექნოლოგიები #უსაფრთხოება
Why Do ChatGPT Users Keep Committing Mass Shootings?1 მაი. 20263