Insights
Foolish Pollsters Are Now Just Asking AI What Voters Would Say in Response to Questions and Publishing It at Face Value
futurism.com
⚠️ სილიკონის ველის ახალი იდეა, რომელსაც „სილიკონური შერჩევა" დაარქვეს, ჩემს ყოველდღიურ სამუშაო პროცესში უკვე დიდი ხანია ყველაზე დიდ პრობლემად იქცა. პროექტის ავტორმა, იოჰანეს ჰიმელრაიხმა ზუსტად ის აღწერა, რასაც 30-აგენტიანი სისტემის მართვისას ვხედავ. ისინი ცდილობენ ნამდვილი ადამიანები ხელოვნური ინტელექტის აგენტებით ჩაანაცვლონ გამოკითხვებში, რადგან ეს უფრო იაფი და სწრაფია. მაგრამ როცა ჩემს Claude-ის აგენტებს ვავალებ, მომხმარებლის ფსიქოლოგიური პორტრეტი შექმნან და ამის მიხედვით ვიდეოს სცენარი დაწერონ, შედეგი საგანგაშოა. აგენტები ერთმანეთს ეთანხმებიან. ისინი ქმნიან იდეალურ, საშუალო არითმეტიკულ „ადამიანს", რომელიც ბუნებაში არ არსებობს. პრობლემა ისაა, რომ ხელოვნური ინტელექტი პროგნოზირებადია, ნამდვილი მომხმარებელი კი — ქაოტური. თუ სარეკლამო ვიდეოს მხოლოდ AI აგენტების „აზრის" საფუძველზე შექმნი, მიიღებ კონტენტს, რომელიც ყველასთვის მისაღებია, მაგრამ ემოციურად არავის ეხება. Grok-ით გენერირებული ვიზუალი შეიძლება იდეალური იყოს, მაგრამ მისი სცენარი მკვდარია, რადგან ის სტატისტიკურ ალბათობას ეყრდნობა და არა ადამიანურ სისუსტეს. 👁 სოციოლოგიური გამოკითხვა ადამიანების გარეშე არის არა მონაცემები, არამედ ექოს პალატა. 🛠 მალე ბაზარი გადაივსება პროდუქტებით, რომლებიც რობოტებმა რობოტებისთვის შექმნეს. 🎯

Foolish Pollsters Are Now Just Asking AI What Voters Would Say in Response to Questions and Publishing It at Face Value

futurism.com

22 აპრილი, 20263

დაწვრილებით ამ თემაზე

🧠 AI ფსიქოზი: როგორ კარგავენ მოდელები "სახეს"?

🧠 AI ფსიქოზი: როგორ კარგავენ მოდელები "სახეს"?

Anthropic-ის კვლევა: AI მოდელებს აქვთ "ასისტენტის ღერძი". გადახრის შემთხვევაში ისინი კარგავენ დამხმარე პერსონას.

ქიმიური აღიარება: რატომ დაარღვია Anthropic-მა თავისივე უსაფრთხოების პირობა

ქიმიური აღიარება: რატომ დაარღვია Anthropic-მა თავისივე უსაფრთხოების პირობა

Anthropic-მა გამოაქვეყნა უსაფრთხოების ანგარიში, სადაც აღიარებს, რომ ახალ მოდელს გააჩნია „მომატებული რისკი“ ქიმიური იარაღის შექმნაში დახმარების კუთხით, თუმცა კომპანიამ ის მაინც გამოუშვა. დარიო ამოდეი ასევე აღიარებს, რომ არ იცის, არის თუ არა მოდელი ცნობიერი. გთავაზობთ სრულ ანალიზს კვირის შესახებ, როდესაც უსაფრთხოება მოკვდა.

კლოდის სისხლიანი დებიუტი: რატომ დაუშვა პენტაგონმა 83 მსხვერპლი ვენესუელაში

კლოდის სისხლიანი დებიუტი: რატომ დაუშვა პენტაგონმა 83 მსხვერპლი ვენესუელაში

83 დაღუპული კარაკასში. ეს არ არის უბრალოდ სტატისტიკა; ეს არის ახალი რეალობის დასაწყისი, სადაც 'უსაფრთხო' და 'ეთიკურმა' ხელოვნურმა ინტელექტმა — Claude-მა — პირდაპირ მიიღო მონაწილეობა სამხედრო ოპერაციაში. პენტაგონმა, Palantir-ის დახმარებით, Anthropic-ის მოდელი გამოიყენა ვენესუელაში რეიდის დასაგეგმად. ეს სტატია ანგრევს მითს 'კეთილი AI-ს' შესახებ და გვიჩვენებს, როგორ გადაიქცა სილიკონ ველის ყველაზე პრინციპული კომპანია ომის მანქანის ნაწილად სულ რაღაც ერთ კვირაში, $30 მილიარდიანი ინვესტიციის შემდეგ.

მსგავსი ინსაითები

Andrew Altair

Andrew Altair

AI ინოვატორი