შიში და მარეგულირებლები
ამ მოვლენის სრული სურათის დასანახად აუცილებელია ბრიტანული განათლების სისტემის ამჟამინდელი მდგომარეობის გაანალიზება. დიდ ბრიტანეთში სკოლები განიცდიან უზარმაზარ მუდმივ წნეხს მარეგულირებელი ორგანოების მხრიდან. სკოლის დირექტორები ეძებენ სწრაფ და დაზღვევულ გამოსავალს მოსწავლეების უსაფრთხოების უზრუნველსაყოფად. საგანმანათლებლო ტექნოლოგიების კომპანიები მათ სთავაზობენ ილუზიას, თითქოს პროგრამული უზრუნველყოფა სრულყოფილად აფასებს შინაარსის უსაფრთხოებას. რეალურად, სკოლები ყიდულობენ კომერციულ პროდუქტს, რომელიც ტექსტს ფილტრავს ძირითადი სემანტიკური მარკერების მიხედვით. ფართო საზოგადოებას მიაჩნია, რომ თანამედროვე ალგორითმები კითხულობენ წიგნებს, როგორც ადამიანები და აანალიზებენ ლიტერატურულ ღირებულებას. სინამდვილეში ეს სისტემები უბრალოდ პოულობენ კონკრეტულ ლექსიკურ კლასტერებს და ავტომატურად რთავენ განგაშის სიგნალს. ეს მექანიკური მიდგომა სრულად აქრობს ტექსტის კონტექსტს და ნაწარმოების მთავარ სათქმელს. როდესაც პროგრამა ხედავს სიტყვებს, რომლებიც აღწერს ძალადობას ან დიქტატურას, ის ვერ ხვდება, რომ ავტორი სწორედ ამ მოვლენებს აკრიტიკებს.
GB News ადასტურებს, რომ ამოღებული წიგნების სია მოიცავდა როგორც რთულ პოლიტიკურ დისტოპიებს, ასევე პოპულარულ თინეიჯერულ რომანებს, როგორიცაა ბინდი, ძირითადად ვამპირული თემატიკისა და ძალადობის აღწერის მოტივით.
როგორ კითხულობს მანქანა ორუელს
ტექნიკური თვალსაზრისით, ტექსტის კლასიფიკატორები და ენობრივი მოდელები მუშაობენ ტოკენიზაციისა და სემანტიკური წონის პრინციპით. პროგრამული უზრუნველყოფის არქიტექტორები სისტემას აძლევენ მკაცრ დავალებას, იპოვოს და მონიშნოს ტოქსიკური კონტენტი მინიმალური ტოლერანტობით. მოდელი უზარმაზარ ტექსტს შლის ათასობით მცირე ნაწილად და ადარებს თავის ბაზაში არსებულ აკრძალულ შაბლონებს. ჯორჯ ორუელის 1984 შეიცავს წამების და ტოტალიტარული კონტროლის დეტალურ აღწერებს ოთახი 101-ის სცენებში. ალგორითმი კითხულობს ამ სცენებს და მისი მათემატიკური ფუნქცია აჩვენებს, რომ ტექსტი შეიცავს მაღალი რისკის ლექსიკას. ეს არის კლასიკური გლიჩი საწყის კოდში, რადგან სისტემას არ გააჩნია კონცეპტუალური გაგების უნარი. მანქანური სწავლების მოდელისთვის ტოტალიტარიზმის მკაცრი კრიტიკა და პირდაპირი ძალადობის პროპაგანდა ერთი და იგივე სემანტიკური ვექტორია. ის ვერ ხედავს ირონიას. ის ვერ კითხულობს სტრიქონებს შორის და ვერ აღიქვამს მეტაფორას. შედეგად პროგრამა ბლოკავს სწორედ იმ ლიტერატურას, რომელიც ახალგაზრდებს კრიტიკულ აზროვნებას ასწავლის.
როდესაც მანქანური სისტემა ვერ განასხვავებს მხატვრულ კრიტიკას რეალური ძალადობისგან, ჩვენ ვიღებთ ინსტრუმენტს, რომელიც ანადგურებს საგანმანათლებლო პროცესის მთავარ საყრდენს.
ბიბლიოთეკარის ისტორია ამ ინციდენტის ყველაზე საგანგაშო ნაწილია. პროფესიონალი, რომლის პირდაპირი მოვალეობაა მოსწავლეებისთვის ასაკის შესაბამისი და ღირებული ლიტერატურის შერჩევა, წინ აღუდგა მანქანურ ლოგიკას. მან სცადა აეხსნა სკოლის ადმინისტრაციისთვის, რომ 1984 არის სავალდებულო საკითხავი ტექსტი თავისუფალი სიტყვის მნიშვნელობის გასააზრებლად. ადმინისტრაციის პასუხი იყო ტიპური ბიუროკრატიული თავდაცვა. მათ არ გადახედეს ალგორითმის შედეგებს და არ მოითხოვეს პროგრამის კალიბრაცია. მათ პირდაპირ დაადანაშაულეს ადამიანი. როდესაც ინსტიტუცია ტექნოლოგიურ სისტემას ანიჭებს უპირატესობას მრავალწლიან ადამიანურ ექსპერტიზაზე, ის ქმნის უაღრესად საშიშ პრეცედენტს. მენეჯერებს ურჩევნიათ დაეყრდნონ დახურულ, დეფექტურ კოდს, ვიდრე აიღონ პასუხისმგებლობა რთული თემების ღიად სწავლებაზე. ეს არის პასუხისმგებლობის დელეგირება მანქანაზე რათა თავიდან აიცილონ კონფლიქტი მშობლებთან.
LBC-ის რეპორტაჟის მიხედვით, გათავისუფლებული ბიბლიოთეკარი აცხადებს: 'მე აბსოლუტურად შოკირებული ვიყავი. სისტემამ ამოიღო ის წიგნები, რომლებიც ათწლეულების განმავლობაში სასკოლო პროგრამის ოქროს სტანდარტს წარმოადგენდა'.
სტერილური გონების არქიტექტორები
მოდით განვიხილოთ ეს პროცესი ეკონომიკური და ბიზნესის კუთხით. განათლების ტექნოლოგიების გლობალური ბაზარი მკვეთრად იზრდება და მილიარდობით დოლარს შეადგენს. კომპანიები ქმნიან პროდუქტებს, რომლებიც სკოლებს გვპირდებიან სრულ კონტროლს საგანმანათლებლო სივრცეზე. ამ პროგრამების შემქმნელებსა და ინჟინერებს არ აინტერესებთ ღრმა ლიტერატურული ანალიზი. მათი მთავარი კომერციული მიზანია შეამცირონ ცრუ უარყოფითი შედეგები. მათ ურჩევნიათ სისტემამ უმიზეზოდ დაბლოკოს ასი სრულიად უვნებელი წიგნი, ვიდრე გამოეპაროს ერთი რეალურად პრობლემური ტექსტი, რამაც შეიძლება გამოიწვიოს სკანდალი და კომპანიის რეპუტაციის შელახვა. ეს მკაცრი მათემატიკური მიდგომა იდეალურად მუშაობს ელექტრონული ფოსტის სპამის ფილტრაციისას, მაგრამ სრულიად გამანადგურებელია კულტურული მემკვიდრეობის მართვისას. ჩვენ საზოგადოებრივ დონეზე ვაიგივებთ მონაცემთა მექანიკურ დამუშავებას ინტელექტუალურ სიბრძნესთან. ალგორითმს შეუძლია მილიწამებში დათვალოს სიტყვა სიკვდილი წიგნში, მაგრამ მას არ შეუძლია აგიხსნათ, რატომ არის ეს სიკვდილი პერსონაჟის განვითარებისთვის გადამწყვეტი. სკოლები იღებენ პარადოქსულ შედეგს. სისტემა, რომელიც შექმნილია ბავშვების გონების დასაცავად, რეალურად მათ ართმევს იმ ინსტრუმენტებს, რომლებიც ამ გონების დამოუკიდებელი განვითარებისთვის არის აუცილებელი.
ავტორის კომენტარი
პრობლემა არ არის თავად ტექნოლოგიაში. ტექნოლოგია ასრულებს იმას რასაც ვავალებთ. პრობლემა არის ჩვენს უტოპიურ მოლოდინში, რომ სტატისტიკური მოდელი გადაჭრის მორალურ და კულტურულ დილემებს, რომლებიც მხოლოდ ადამიანური დიალოგით გვარდება.
ამ კონკრეტული მოვლენის შედეგები ბევრად უფრო მასშტაბურია, ვიდრე უბრალოდ ერთი ბრიტანული სკოლის ბიბლიოთეკის თაროების დაცარიელება. ჩვენ რეალურ დროში ვხედავთ ახალი ტიპის ცენზურის დაბადებას. ტრადიციული ისტორიული ცენზურა მოითხოვდა მკაფიო პოლიტიკურ ნებას, კონკრეტულ იდეოლოგიურ არგუმენტებს და დიდ ადამიანურ ძალისხმევას. საზოგადოებას ყოველთვის შეეძლო დაენახა ცენზორი და შეკამათებოდა მას. დღევანდელი ავტომატიზებული ცენზურა არის უხილავი, ჩუმი, მასშტაბური და ემოციებისგან დაცლილი. ეს ინციდენტი მკაფიოდ აჩვენებს სახიფათო ტენდენციას, სადაც საგანმანათლებლო სისტემები ნებაყოფლობით კარგავენ ინტელექტუალურ გამბედაობას. როდესაც სკოლა იყენებს ხელოვნურ ინტელექტს რისკების სრულად აღმოსაფხვრელად, ის რეალურად ქმნის აბსოლუტურად სტერილურ, ხელოვნურ გარემოს. ასეთ დახურულ გარემოში მოსწავლეები ვეღარ ეცნობიან კონფლიქტურ იდეებს. ისინი ვეღარ ხედავენ რეალური სამყაროს სირთულეს და სიმკაცრეს. ტექნოლოგიური კორპორაციები აგრძელებენ მსგავსი ხისტი ფილტრაციის სისტემების მასობრივ გაყიდვას როგორც უსაფრთხოების აბსოლუტური გარანტიის. სკოლები სიამოვნებით იხდიან სოლიდურ თანხებს პროგრამაში, რომელიც მათ სთავაზობს ფსიქოლოგიურ კომფორტს საკუთარი პედაგოგიური მოვალეობებისგან გათავისუფლების ხარჯზე.
გავაანალიზოთ განსხვავება ადამიანურ და ალგორითმულ კრიტიკას შორის. როდესაც მასწავლებელი ან განათლების ექსპერტი კითხულობს ტექსტს ის ითვალისწინებს ისტორიულ ეპოქას, ავტორის ბიოგრაფიას და ნაწარმოების გავლენას კულტურაზე. ის იღებს გადაწყვეტილებას სრული ინფორმაციის საფუძველზე. მანქანური სწავლების მოდელები მოკლებულნი არიან ამ შესაძლებლობას. მათთვის ისტორია არ არსებობს. მათთვის არსებობს მხოლოდ აწმყო მომენტში გააქტიურებული ნეირონული ქსელი და პარამეტრების სიმრავლე. როდესაც მარეგულირებელი ითხოვს სკოლისგან ნულოვან ტოლერანტობას ნებისმიერი ტიპის ძალადობრივ კონტენტზე, ინჟინრები ამკაცრებენ სისტემის მგრძნობელობას. ეს ნიშნავს, რომ პროგრამა იწყებს აბსოლუტურად ყველაფრის დაბლოკვას, რაც თეორიულად შეიძლება ვინმემ გააპროტესტოს. ეს არის სისტემის თვითგადარჩენის მექანიზმი. ალგორითმისთვის ბევრად უფრო უსაფრთხოა წაშალოს შექსპირის ტრაგედიები, რადგან იქ პერსონაჟები კვდებიან, ვიდრე გარისკოს და ვინმე გაანაწყენოს. ეს არის ყველაზე დიდი საფრთხე. ჩვენ ვზრდით თაობას, რომელსაც ექნება წვდომა მსოფლიოს ყველა ინფორმაციაზე, მაგრამ არ ექნება წვდომა მსოფლიოს ყველა იდეაზე.
ეს ისტორია გვიჩვენებს ერთ ფუნდამენტურ ჭეშმარიტებას. ტექნოლოგიური ინსტრუმენტები არასდროს არიან ნეიტრალურები. ისინი ყოველთვის ატარებენ იმ სპეციფიკურ შეზღუდვებსა და კომერციულ პრიორიტეტებს, რომლებიც მათ საწყის კოდშია ჩადებული არქიტექტორების მიერ. ხელოვნური ინტელექტი მართლაც ფანტასტიკური და მძლავრი რესურსია დიდი მოცულობის მონაცემების ასაჩქარებლად, ინფორმაციის სტრუქტურირებისთვის და ბიუროკრატიული რუტინული ამოცანების შესასრულებლად. მაგრამ ის სრულიად გამოუსადეგარია ეთიკური, ესთეტიკური და რთული კულტურული საზღვრების დასადგენად. მანჩესტერის სკოლის შემთხვევა არის უაღრესად ზუსტი მაგალითი იმისა, თუ რა ემართება თანამედროვე საზოგადოებას, როდესაც ჩვენ ვცდილობთ რთული ადამიანური პასუხისმგებლობა მარტივ მათემატიკურ ფორმულას გადავაბაროთ. ჩვენ აუცილებლად უნდა შევინარჩუნოთ ადამიანური კონტროლი და კრიტიკული აზროვნება გადაწყვეტილების მიღების ჯაჭვში. ნამდვილი განათლება ყოველთვის მოითხოვს ინტელექტუალურ ხახუნს. მოსწავლეები უნდა კითხულობდნენ წიგნებს, რომლებიც მათ აფიქრებს, აბრაზებს და კითხვებს უჩენს. კომპიუტერული კოდი ყოველთვის უნდა ემსახურებოდეს განათლებას და გვეხმარებოდეს ახალი ჰორიზონტების აღმოჩენაში. როგორც კი მას მივცემთ სრულ უფლებას დაგვიწესოს ინტელექტუალური საზღვრები უსაფრთხოების სახელით, ჩვენ საკუთარი ხელით ავაშენებთ ზუსტად იმ ცივ დისტოპიას, რომლის წაკითხვასაც ეს ალგორითმი დღეს ასე ჯიუტად გვიკრძალავს.



