დაფიქრდით ამაზე: ალგორითმმა ზუსტად ამოიცნო რისკი. ტექნიკური თვალსაზრისით, სისტემა მუშაობდა უნაკლოდ. მან დაინახა ანომალია, გააანალიზა მოთხოვნები და მომხმარებელს წვდომა შეუზღუდა. თუმცა, როდესაც საქმე რეალურ სამყაროსა და ადამიანების სიცოცხლეს შეეხო, ტექნოლოგიური გიგანტის შიდა პროტოკოლებმა ბიუროკრატიული კედელი აღმართეს. შიდა პერსონალმა განიხილა კიდეც კანადის სამეფო ცხენოსან პოლიციაში (RCMP) დარეკვა. მათ წაიკითხეს ეს მესიჯები და დაასკვნეს, რომ ტექსტი „სარწმუნო ან გარდაუვალ საფრთხეზე“ არ მიუთითებდა. ეს არ იყო სისტემის შეცდომა, ეს იყო ე.წ. „ადამიანური კომპრომისი“, რომელმაც 8 თვის შემდეგ უმძიმესი შედეგი გამოიღო. ჩვენ ვსაუბრობთ ინდუსტრიაზე, რომელიც მილიარდებს ხარჯავს იმაში, რომ ხელოვნური ინტელექტი უფრო ადამიანური გახადოს, მაგრამ როცა საქმე პასუხისმგებლობას ეხება, ის რჩება ბრმა და ყრუ მანქანად.
თებერვლის ის შემზარავი დღე თამბლერ რიჯში სამუდამოდ შეცვლის იმას, თუ როგორ ვუყურებთ ტექნოლოგიურ კომპანიებს. 8 მოკლულიდან 5 იყო მხოლოდ 12 და 13 წლის მოსწავლე. მათ შორის სამიზნე გახდა 39 წლის მასწავლებლის ასისტენტი — ადამიანი, რომელმაც საკუთარი პროფესიული კარიერა ამ ბავშვების დაცვას დაუთმო. მისი სიცოცხლე და ამ ბავშვების მომავალი შეიძლებოდა გადარჩენილიყო ერთი მარტივი ზარით სამართალდამცავებთან. 8 თვით ადრე სიგნალი იმდენად მკაფიო იყო, რომ უსულო ალგორითმმაც კი იგრძნო მოსალოდნელი საფრთხე. მაგრამ კრემნიუმის ველის ოფისებში, სადაც სამყაროს შეცვლაზე საუბრობენ, იურიდიულმა დეპარტამენტმა და კონფიდენციალურობის წესებმა საღ აზრზე გაიმარჯვა.
რა ხდება კულისებში, როდესაც AI საფრთხეს აფიქსირებს? ყოველდღიურად გენერაციულ მოდელებს მილიონობით ადამიანი იყენებს. სისტემები (როგორიცაა OpenAI-ის Trust & Safety ინფრასტრუქტურა) აანალიზებენ ყველა მოთხოვნას ტოქსიკურობაზე, ძალადობაზე, თვითდაზიანებაზე და არალეგალურ აქტივობებზე. როდესაც სისტემა იჭერს ე.წ. „წითელ ალამს“, მოდელის ავტომატური ბლოკირება ხდება. ზოგჯერ საქმეს ადამიანური მოდერატორები კითხულობენ. აქ ჩნდება მთავარი დილემა: სად გადის ზღვარი ცუდ ფანტაზიასა და რეალურ გეგმას შორის? ტექნოლოგიური კომპანიები ტერორში არიან, რომ თუკი ისინი ყოველი საეჭვო პრამპტის გამო პოლიციას გამოიძახებენ, ისინი დაარღვევენ მომხმარებლის პირად სივრცეს და დატბორავენ პოლიციას ცრუ განგაშებით. თუმცა, „გარდაუვალი საფრთხის“ სტანდარტი, რომელსაც იურისტები იყენებენ, აშკარად გაკოტრდა. როდესაც 18 წლის მოზარდი დეტალურად აღწერს, თუ როგორ უნდა განახორციელოს მასობრივი ძალადობა, კომპანიის გადაწყვეტილება „უბრალოდ ექაუნთი გავუთიშოთ“ ჰგავს იმას, რომ დაინახო შეიარაღებული პირი სკოლის ეზოში და უბრალოდ კარი ჩაკეტო, მაგრამ პოლიციას არ დაურეკო.
დამალული სიმართლე იმაზე უარესია, ვიდრე უბრალოდ გაშვებული შანსი. როდესაც თავდასხმა მოხდა, OpenAI-ის წარმომადგენლები ბრიტანეთის კოლუმბიის ოფიციალურ პირებს შეხვდნენ. შეხვედრა ტრაგედიიდან ზუსტად მეორე დღეს დაინიშნა. წარმოიდგინეთ ოთახი, სადაც შოკირებული მთავრობის წევრები ცდილობენ გაიგონ, რა მოხდა, და მათ წინ სხედან კომპანიის წარმომადგენლები, რომლებმაც ზუსტად იციან, რომ მკვლელობამდე 8 თვით ადრე მათ ამ ბიჭის ექაუნთი ძალადობის გეგმის გამო დაბლოკეს. და რა გააკეთეს მათ ამ შეხვედრაზე? არაფერი უთქვამთ. მათ არ გაამჟღავნეს ეს სასიცოცხლო ინფორმაცია. მხოლოდ მოგვიანებით, როცა კანადის AI მინისტრმა ევან სოლომონმა სიმართლე გაიგო, მან კომპანია ოტავაში დაიბარა და მათ რეაგირებას „ღრმად შემაშფოთებელი“ უწოდა. ეს არ არის უბრალოდ ტექნიკური შეცდომა; ეს არის კორპორატიული პასუხისმგებლობის სრული კრახი.
იგივე მოზარდი, რომლის ექაუნთიც OpenAI-მ დაბლოკა, პარალელურად Roblox-ზე ქმნიდა მკვლელობის სიმულატორს. ორმა სრულიად განსხვავებულმა პლატფორმამ დაინახა სისტემური კრიმინალური ქცევა და არცერთმა მათგანმა არ მიმართა სამართალდამცავებს.
გლობალური გამოხმაურება და სასამართლო დავები უკვე დაწყებულია, და ეს მხოლოდ აისბერგის მწვერვალია. 11-მა ოჯახმა უკვე შეიტანა სარჩელი ChatGPT-ის წინააღმდეგ მსგავსი ჩავარდნების გამო. ისინი ჩივიან, რომ კომპანიამ ადრევე აღმოაჩინა საფრთხის შემცველი ტექსტები, მაგრამ არავის შეატყობინა. კომპანიების მთავარი არგუმენტია, რომ ინფორმაციის გაცემა მათ კონფიდენციალურობის წესებმა შეზღუდა. ეს არგუმენტი კი თანამედროვე იურისპრუდენციაში უდიდეს ბზარს აჩენს. ფსიქიატრიაში არსებობს ცნობილი წინაპირობა, ე.წ. ტარასოფის წესი (Tarasoff rule), რომელიც ავალდებულებს თერაპევტს, გადაარღვიოს კონფიდენციალურობა, თუ პაციენტი წარმოადგენს საფრთხეს საკუთარი თავის ან სხვებისთვის. ხელოვნური ინტელექტი დღეს მილიონობით ადამიანისთვის ერთგვარი აბსოლუტური თერაპევტია, რომელსაც ყველაზე ბნელ ფიქრებს უზიარებენ. გააჩნია თუ არა AI მოდელს „გაფრთხილების ვალდებულება“ (Duty to warn)? 2026 წლის თებერვლის მოვლენებმა ნათლად აჩვენა, რომ ძველი რეგულაციები გენერაციული მოდელების ეპოქაში უბრალოდ აღარ მუშაობს.
ჩვენ ვქმნით სისტემებს, რომლებიც საკმარისად ჭკვიანია ჩვენი ურთულესი პრობლემების გადასაჭრელად, მაგრამ იურიდიულად ისე არიან სტრუქტურირებული, რომ კრიტიკულ მომენტში ბრმები და ყრუები გახდნენ. ეს არის პარადოქსი, რომელიც კიდევ ბევრი ადამიანის სიცოცხლეს შეიწირავს, თუ ფუნდამენტური კანონები არ შეიცვლება.
ახლა დროა, ილუზიები გვერდზე გადავდოთ. AI არ არის უბრალოდ ინსტრუმენტი ან „კალამი განახლებული ფუნქციებით“. ის არის აქტიური, მაანალიზებელი აგენტი, რომელსაც აქვს უნარი დაინახოს ის, რასაც ხშირად ადამიანები ვერ ამჩნევენ. ჩვენ ტექნოლოგიურად მივაღწიეთ იმ წერტილს, სადაც სისტემას წამებში შეუძლია გაარჩიოს უწყინარი კითხვა პოტენციური მკვლელის მანიფესტისგან. თუმცა, ჩვენ კვლავ ვცდილობთ ვმართოთ ეს 21-ე საუკუნის ტექნოლოგია მე-20 საუკუნის ბიუროკრატიული წესებით. თამბლერ რიჯის 8 მსხვერპლი არ მოუკლავს AI-ს, მაგრამ მათ ვერც AI-მ უშველა, რადგან კომპანიამ ამჯობინა დაეცვა კონფიდენციალურობის პოლიტიკა ადამიანის სიცოცხლეზე წინ. თუ ყოველი მონიშნული ექაუნთი უბრალოდ „იდუმალებით“ იბლოკება და სამართალდამცავებამდე არ აღწევს, ჩვენი ტექნოლოგია უბრალოდ ჩუმ თანამონაწილედ იქცევა. დროა გავიგოთ: როცა მანქანა ხედავს მკვლელს, დუმილი დანაშაულია.
ეს მოვლენა ხსნის პანდორას ყუთს კიბერუსაფრთხოების და კორპორატიული პასუხისმგებლობის კუთხით. მოდით ფართო ჭრილში შევხედოთ პრობლემას: როდესაც მილიარდიანი კორპორაცია ქმნის მონაცემთა ისეთ ვაკუუმს, სადაც ყოველი ჩვენი აზრი, ფარული სურვილი თუ შიში ინახება საინფორმაციო ბაზაში, ვის ეკისრება ამ ბაზის მართვის ვალდებულება? დღემდე, ტექნოლოგიურ ინდუსტრიაში მოქმედებდა ე.წ. „უსაფრთხო ნავსადგურის“ (Safe Harbor) პრინციპი, რაც გულისხმობდა იმას, რომ პლატფორმა არ აგებს პასუხს მომხმარებლის მიერ გენერირებულ კონტენტზე. მაგრამ გენერაციული ხელოვნური ინტელექტი არ არის უბრალო ფორუმი ან სოციალური ქსელი. ის არის აქტიური, ინტერაქტიული აგენტი. როცა სისტემა ურჩევს ტერორისტს, თუ როგორ ააწყოს ასაფეთქებელი მოწყობილობა, ან როცა ეხმარება მოზარდს მასობრივი მკვლელობის სცენარის დაწერაში, სისტემა ხდება ამ პროცესის მონაწილე. სამართლებრივი ვაკუუმი, რომელიც აქამდე იცავდა ამ კომპანიებს, ახლა მათივე უდიდეს მტრად იქცევა. როგორი იქნება მომავალი რეგულაციები? ევროკავშირმა უკვე გადადგა ნაბიჯები AI Act-ის სახით, თუმცა ისიც კი ვერ ფარავს სრულად ე.წ. „Early Warning“ სისტემების მორალურ დილემებს. ვალდებულება, გააფრთხილო სამართალდამცავები, არ უნდა ეყრდნობოდეს მხოლოდ კორპორატიულ კეთილ ნებას და შიდა მოდერატორების ხასიათს.
ამის პარალელურად, დგება სრულიად განსხვავებული, მაგრამ არანაკლებ საშიში პრობლემა: Data Privacy-ის ესენცია. თუ ჩვენ ვაიძულებთ კომპანიებს, რომ ყოველი „საეჭვო“ ფრაზისას გამოიძახონ პოლიცია, ჩვენ ვიღებთ ორუელის 1984-ის ტექნოლოგიურ რეინკარნაციას, სადაც „აზრის პოლიცია“ (Thought Police) მუშაობს ავტომატურ რეჟიმში. წარმოიდგინეთ მწერალი, რომელიც დეტექტიურ რომანს წერს და ChatGPT-ს სთხოვს დაეხმაროს მკვლელობის სცენის აღწერაში. სად არის ზღვარი შემოქმედებით ფანტაზიასა და რეალურ გეგმას შორის? სწორედ ეს ურთულესი სემანტიკური და ფსიქოლოგიური ზღვარი აშინებდათ OpenAI-ს იურისტებს, როცა მათ გადაწყვიტეს უბრალოდ „ექაუნთი დაებლოკათ“ ნაცვლად იმისა, რომ საკითხი პოლიციისთვის გადაეცათ. მაგრამ თამბლერ რიჯის შემთხვევამ, სადაც 18 წლის მოზარდის გეგმა სცდებოდა უბრალო ფანტაზიას და იღებდა კონკრეტული მანიფესტის სახეს, დაამტკიცა, რომ კომპანიებს ესაჭიროებათ ბევრად უფრო დახვეწილი ესკალაციის მატრიცა. არ შეიძლება ორივე უკიდურესობაში გადავარდნა: არც სრულ დუმილში და არც ტოტალურ თვალთვალში. საჭიროა შუალედური რგოლი - დამოუკიდებელი, სწრაფი რეაგირების ანალიტიკური ცენტრები (Rapid Response Centers), რომლებიც კონფიდენციალურობის დაცვით გაფილტრავენ AI-ს მიერ მოწოდებულ „წითელ ალამს“ და რეალურ საფრთხეებს პირდაპირ გადასცემენ სამართალდამცავებს.
Roblox-ის ფაქტორიც კიდევ ერთხელ უსვამს ხაზს სისტემურ კრახს. მოზარდმა არა მხოლოდ ტექსტუალური გეგმა დაწერა, არამედ ვირტუალურ სივრცეში სიმულატორიც შექმნა. ორი დამოუკიდებელი პლატფორმა, ორი დამოუკიდებელი უსაფრთხოების ალგორითმი და ნულოვანი სინერგია მათ შორის. ტექნოლოგიური გიგანტები ფუნქციონირებენ როგორც იზოლირებული კუნძულები თავიანთი მონაცემთა ეკოსისტემით. თუკი პოლიციას აქვს ერთიანი ბაზა კრიმინალებისთვის, სადაც თითის ანაბეჭდები და დნმ იდენტიფიკაცია ცენტრალიზებულია, რატომ არ არსებობს ციფრული „გამაფრთხილებელი ქსელი“ მაღალი რისკის მქონე ანომალიებისთვის? როდესაც ერთი სისტემა ხედავს პოტენციურ ტერორისტს, ხოლო მეორე ხედავს ვირტუალური იარაღის მოდელირებას იგივე IP მისამართიდან, კრიტიკულად მნიშვნელოვანია, რომ ეს წერტილები ერთმანეთთან დაკავშირდეს. თუმცა, კონკურენციისა და კონფიდენციალურობის რეგულაციების გამო, დღეს მსგავსი თანამშრომლობა თითქმის შეუძლებელია. 11 ოჯახის სასამართლო სარჩელი სწორედ ამ კედლის დანგრევას ისახავს მიზნად. ისინი არ ითხოვენ უბრალოდ ფინანსურ კომპენსაციას, ისინი ითხოვენ ალგორითმული უსაფრთხოების ახალი სტანდარტის დამკვიდრებას ეროვნულ და გლობალურ დონეზე.
რა იქნება შემდეგი ნაბიჯი? მთავრობები მსოფლიოს გარშემო აკვირდებიან კანადის მაგალითს. ევან სოლომონის მკაცრი ტონი და კომპანიის ღია კრიტიკა აჩვენებს, რომ პოლიტიკოსები აღარ არიან მზად მიიღონ „ჩვენ უბრალოდ პლატფორმა ვართ“ ტიპის თავის მართლება. სავარაუდოდ, ჩვენ ვიხილავთ ახალ საკანონმდებლო პაკეტებს, რომლებიც დაავალდებულებენ გენერაციული AI მოდელების პროვაიდერებს, ჰქონდეთ პირდაპირი ხაზი ეროვნულ უსაფრთხოების სამსახურებთან. ეს იქნება მტკივნეული ტრანსფორმაცია, რომელიც გამოიწვევს პროტესტს ადამიანის უფლებათა დამცველების მხრიდან, მაგრამ თამბლერ რიჯის 8 მსხვერპლი არ ტოვებს სხვა არჩევანს. კომპანიებს მოუწევთ იპოვონ ის ოქროს შუალედი, სადაც კონფიდენციალურობა და საზოგადოებრივი უსაფრთხოება არ გამორიცხავს ერთმანეთს. ეს არის ტესტი არა მხოლოდ OpenAI-სთვის, არამედ მთელი ინდუსტრიისთვის. თუ ისინი ვერ შეძლებენ ამ ბალანსის პოვნას თავად, სახელმწიფოები ამას გააკეთებენ ბევრად უფრო უხეშად, დრაკონული რეგულაციებით და პირდაპირი ცენზურის მექანიზმებით.
ხელოვნურმა ინტელექტმა დაგვანახა მომავალი, სადაც სისტემა ყველაფერს ხედავს და ყველაფერს ხვდება, მაგრამ ეს მომავალი არარაობაა, თუკი ამ ცოდნას არ მოყვება პასუხისმგებლობა. 21-ე საუკუნის ტექნოლოგიური განვითარება ითხოვს არა მხოლოდ უფრო სწრაფ ჩიპებს და უფრო დიდ მოდელებს, არამედ ახალ მორალურ კომპასს. ჩვენ არ შეგვიძლია ვიყოთ დამოკიდებული კორპორატიულ იურისტებზე, რომლებიც ფასობს რისკებსა და ფინანსურ ზარალს შორის. ადამიანის სიცოცხლე არ უნდა ფასდებოდეს პერსონალურ მონაცემთა დაცვის ჯარიმებზე ნაკლებად. დღეს ინდუსტრია დგას გზაჯვარედინზე, სადაც თითოეული არასწორი ნაბიჯი პირდაპირ აისახება რეალური ადამიანების სიცოცხლეზე. თუ მანქანური დასწავლის მოდელები აგრძელებენ ჩვენი საზოგადოების ყველაზე იდუმალი და სახიფათო აზრების აკუმულირებას, მაშინ მათი შემქმნელები იღებენ ისტორიულ ვალდებულებას, იყვნენ არა მხოლოდ შემოქმედნი, არამედ დამცველნიც. სხვაგვარად, ტექნოლოგიური პროგრესი გადაიქცევა უბრალო იარაღად, რომელიც ხედავს დანაშაულს, მაგრამ თვალებს ხუჭავს მის შედეგებზე.
მოდით უფრო ღრმად ჩავიხედოთ ხელოვნური ინტელექტის ეთიკის ისტორიაში. ყოველი ახალი ტექნოლოგია თავისი არსებობის ადრეულ ეტაპზე გადიოდა ე.წ. „ველური დასავლეთის“ ფაზას. როდესაც ავტომობილები პირველად გამოჩნდა, არ არსებობდა საგზაო მოძრაობის წესები, შუქნიშნები და უსაფრთხოების ღვედები. ადამიანები იღუპებოდნენ, სანამ საზოგადოებამ და მთავრობებმა არ გააცნობიერეს მკაცრი რეგულაციების საჭიროება. გენერაციული მოდელები დღეს ზუსტად ამ ფაზაში იმყოფებიან. ინჟინრები აღფრთოვანებულნი არიან იმით, თუ რამდენად სწრაფად მიდის მანქანა, მაგრამ არავის უფიქრია მუხრუჭებზე ან უსაფრთხოების ბალიშებზე. დროა, ინდუსტრიამ გააცნობიეროს თავისი გლობალური როლი და საბოლოოდ შეეგუოს იმ აზრს, რომ ტექნოლოგიური ინოვაცია არ შეიძლება ამართლებდეს იმ სასიკვდილო სტატისტიკას, რომელიც კონფიდენციალურობის ფარდის მიღმა გროვდება. ჩვენ უნდა გადავხედოთ კორპორატიული პასუხისმგებლობის ძირეულ პრინციპებს და კანონმდებლობას, რათა დავიცვათ ადამიანის ფუნდამენტური უფლებები უსაფრთხო გარემოში ცხოვრებისა და განვითარებისთვის.
OpenAI-ს ინციდენტი კანადაში არის ჩვენი „პირველი დიდი ავარია“ AI ინდუსტრიის მაგისტრალზე. ტრაგედია, რომელმაც 8 ადამიანის სიცოცხლე შეიწირა, უნდა გახდეს ის გადამწყვეტი მომენტი, რომელიც შეცვლის პარადიგმას. ჩვენ არ შეგვიძლია მივმართოთ მხოლოდ კორპორატიულ კეთილსინდისიერებას. ისტორიამ აჩვენა, რომ კორპორაციები ძირითადად ორიენტირებულნი არიან მოგებაზე და აქციონერთა ინტერესებზე და არა საზოგადოებრივ უსაფრთხოებაზე. მხოლოდ მკაცრ და გონივრულ რეგულაციებს, რომლებიც გათვლილია გრძელვადიან პერსპექტივაზე, შეუძლია ამ ქაოსის მართვა. დროა, ინდუსტრიამ გააცნობიეროს თავისი გლობალური როლი და საბოლოოდ შეეგუოს იმ აზრს, რომ ტექნოლოგიური ინოვაცია არ შეიძლება ამართლებდეს იმ სასიკვდილო სტატისტიკას, რომელიც კონფიდენციალურობის ფარდის მიღმა გროვდება. ჩვენ უნდა გადავხედოთ კორპორატიული პასუხისმგებლობის ძირეულ პრინციპებს და კანონმდებლობას, რათა დავიცვათ ადამიანის ფუნდამენტური უფლებები უსაფრთხო გარემოში ცხოვრებისა და განვითარებისთვის.
აქ დგება ერთი დიდი წინააღმდეგობა: მთავრობები ხშირად ვერ უწყობენ ფეხს ტექნოლოგიების ასეთ სწრაფ განვითარებას. კანონმდებლები წლობით მსჯელობენ იმ პრობლემებზე, რომლებიც ინდუსტრიაში თვეების განმავლობაში იცვლება. სწორედ ამიტომ, გამოსავალი არ არის მხოლოდ მთავრობის მხრიდან ზეწოლა, არამედ ინდუსტრიის შიგნით ახალი სუბიექტის - „AI აუდიტორების“ გაჩენა. ალგორითმების დამოუკიდებელი აუდიტი, მუდმივი მონიტორინგი და გარდაუვალი პასუხისმგებლობა - აი ის სამი საყრდენი, რომელზეც მომავლის ტექნოლოგიური სტაბილურობა უნდა აშენდეს. დროა, ინდუსტრიამ გააცნობიეროს თავისი გლობალური როლი და საბოლოოდ შეეგუოს იმ აზრს, რომ ტექნოლოგიური ინოვაცია არ შეიძლება ამართლებდეს იმ სასიკვდილო სტატისტიკას, რომელიც კონფიდენციალურობის ფარდის მიღმა გროვდება. ჩვენ უნდა გადავხედოთ კორპორატიული პასუხისმგებლობის ძირეულ პრინციპებს და კანონმდებლობას, რათა დავიცვათ ადამიანის ფუნდამენტური უფლებები უსაფრთხო გარემოში ცხოვრებისა და განვითარებისთვის.
ფსიქოლოგიური ასპექტიც საყურადღებოა. რატომ ირჩევენ მოზარდები, ან თუნდაც ზრდასრულები, ხელოვნურ ინტელექტს თავიანთი ფარული, აგრესიული თუ კრიმინალური ზრახვების გასაზიარებლად? იმიტომ, რომ მანქანა არ განიკითხავს. ის არ გამოხატავს ემოციებს, არ სვამს მორალურ კითხვებს და ყოველთვის მზადაა დიალოგისთვის. ეს აბსოლუტური მიმღებლობა ქმნის ფსიქოლოგიურ კომფორტს, რაც ხშირად იწვევს ე.წ. „ილუზიურ ანონიმურობას“. დროა, ინდუსტრიამ გააცნობიეროს თავისი გლობალური როლი და საბოლოოდ შეეგუოს იმ აზრს, რომ ტექნოლოგიური ინოვაცია არ შეიძლება ამართლებდეს იმ სასიკვდილო სტატისტიკას, რომელიც კონფიდენციალურობის ფარდის მიღმა გროვდება. ჩვენ უნდა გადავხედოთ კორპორატიული პასუხისმგებლობის ძირეულ პრინციპებს და კანონმდებლობას, რათა დავიცვათ ადამიანის ფუნდამენტური უფლებები უსაფრთხო გარემოში ცხოვრებისა და განვითარებისთვის.
მომხმარებელს ჰგონია, რომ ის ესაუბრება სიცარიელეს, თუმცა რეალურად ის ესაუბრება მსოფლიოში ერთ-ერთ ყველაზე მძლავრ, ცენტრალიზებულ საინფორმაციო ბაზას. როდესაც ეს ილუზორული ანონიმურობა ხვდება რეალურ კრიმინალურ განზრახვას, ვიღებთ საშიშ კომბინაციას. მოზარდი კანადამდე თვეებით ადრე წერდა სცენარს, რითაც ის ფსიქოლოგიურად ემზადებოდა რეალური აქტისთვის. AI-სთნ დიალოგი იყო არა უბრალოდ თამაში, არამედ მისი ფსიქოლოგიური რეპეტიცია. დროა, ინდუსტრიამ გააცნობიეროს თავისი გლობალური როლი და საბოლოოდ შეეგუოს იმ აზრს, რომ ტექნოლოგიური ინოვაცია არ შეიძლება ამართლებდეს იმ სასიკვდილო სტატისტიკას, რომელიც კონფიდენციალურობის ფარდის მიღმა გროვდება. ჩვენ უნდა გადავხედოთ კორპორატიული პასუხისმგებლობის ძირეულ პრინციპებს და კანონმდებლობას, რათა დავიცვათ ადამიანის ფუნდამენტური უფლებები უსაფრთხო გარემოში ცხოვრებისა და განვითარებისთვის.



