Insights
College Students Losing Ability to Participate in Class Discussions Because They Offloaded Their Thinking to AI
futurism.com
⚠️ ამერიკელი მკვლევრების ბოლო მოხსენებამ აჩვენა, რომ ხელოვნური ინტელექტით დაწერილი სტუდენტური ესეები აბსოლუტურად იდენტური გახდა. მათი ლექსიკა ერთგვაროვანია, სტილი კი — რობოტული და მოსაწყენი. სინამდვილეში, აკადემიური სფერო ახლა ეჯახება იმ სისტემურ დეფექტს, რომლის გამოსწორებაც პროდაქშენში ყველაზე ძვირი ჯდება. როცა ტექსტურ აგენტებს მასშტაბურად ამუშავებ, მაგალითად Claude-ს, მისი ბუნებრივი მდგომარეობა „საშუალო არითმეტიკულის“ გენერირებაა. თუ ჩემს სისტემაში თითოეულ აგენტს ხასიათის მკაცრი შეზღუდვები და ნეგატიური პრომპტები არ დავუწესე, ისინი ასობით სცენარს ზუსტად ერთი და იმავე, პლასტმასის ტონით წერენ. სტუდენტები მოდელს უბრალოდ ტექსტის შექმნას სთხოვენ, მოდელი კი მათ ინტერნეტში არსებული ყველაზე ბანალური ფრაზების კრებულს უბრუნებს. ბევრს ჰგონია, რომ ხელოვნური ინტელექტით ორიგინალური ხმის შენარჩუნება მარტივია. რეალურად, კონტენტის საწარმოო ხაზზე, შაბლონური ტექსტისგან თავის დაღწევა ბევრად უფრო რთული საინჟინრო ამოცანაა, ვიდრე თავად ტექსტის გენერაცია. 🛠 თუ თქვენი სისტემა პირველივე ცდაზე, დამატებითი კონტექსტის გარეშე იდეალურ ტექსტს გაძლევთ, ეს ნიშნავს, რომ მან უბრალოდ ყველაზე გავრცელებული, მკვდარი სტანდარტი მოგყიდათ. 🔬

College Students Losing Ability to Participate in Class Discussions Because They Offloaded Their Thinking to AI

futurism.com

9 აპრილი, 20262

დაწვრილებით ამ თემაზე

🧠 AI ფსიქოზი: როგორ კარგავენ მოდელები "სახეს"?

🧠 AI ფსიქოზი: როგორ კარგავენ მოდელები "სახეს"?

Anthropic-ის კვლევა: AI მოდელებს აქვთ "ასისტენტის ღერძი". გადახრის შემთხვევაში ისინი კარგავენ დამხმარე პერსონას.

ქიმიური აღიარება: რატომ დაარღვია Anthropic-მა თავისივე უსაფრთხოების პირობა

ქიმიური აღიარება: რატომ დაარღვია Anthropic-მა თავისივე უსაფრთხოების პირობა

Anthropic-მა გამოაქვეყნა უსაფრთხოების ანგარიში, სადაც აღიარებს, რომ ახალ მოდელს გააჩნია „მომატებული რისკი“ ქიმიური იარაღის შექმნაში დახმარების კუთხით, თუმცა კომპანიამ ის მაინც გამოუშვა. დარიო ამოდეი ასევე აღიარებს, რომ არ იცის, არის თუ არა მოდელი ცნობიერი. გთავაზობთ სრულ ანალიზს კვირის შესახებ, როდესაც უსაფრთხოება მოკვდა.

კლოდის სისხლიანი დებიუტი: რატომ დაუშვა პენტაგონმა 83 მსხვერპლი ვენესუელაში

კლოდის სისხლიანი დებიუტი: რატომ დაუშვა პენტაგონმა 83 მსხვერპლი ვენესუელაში

83 დაღუპული კარაკასში. ეს არ არის უბრალოდ სტატისტიკა; ეს არის ახალი რეალობის დასაწყისი, სადაც 'უსაფრთხო' და 'ეთიკურმა' ხელოვნურმა ინტელექტმა — Claude-მა — პირდაპირ მიიღო მონაწილეობა სამხედრო ოპერაციაში. პენტაგონმა, Palantir-ის დახმარებით, Anthropic-ის მოდელი გამოიყენა ვენესუელაში რეიდის დასაგეგმად. ეს სტატია ანგრევს მითს 'კეთილი AI-ს' შესახებ და გვიჩვენებს, როგორ გადაიქცა სილიკონ ველის ყველაზე პრინციპული კომპანია ომის მანქანის ნაწილად სულ რაღაც ერთ კვირაში, $30 მილიარდიანი ინვესტიციის შემდეგ.

მსგავსი ინსაითები

Andrew Altair

Andrew Altair

AI ინოვატორი