ამ გაშვების სიმძიმის გასაგებად, უნდა გესმოდეთ Anthropic-ის წარმოშობის ისტორია. კომპანია ჩამოაყალიბეს OpenAI-ს ყოფილმა ხელმძღვანელებმა — დარიო ამოდეიმ, დანიელა ამოდეიმ, ჯეკ კლარკმა და სხვებმა — რომლებიც 2021 წელს წამოვიდნენ OpenAI-დან კონკრეტულად იმიტომ, რომ მიაჩნდათ, კომპანია ზედმეტად სწრაფად მოქმედებდა და კომერციალიზაციას უსაფრთხოებაზე მაღლა აყენებდა. მათ მილიარდობით დოლარი მოიზიდეს ერთი, დამაჯერებელი პირობით: ჩვენ ვართ უსაფრთხო არჩევანი. ჩვენ არ ვჩქარობთ. ჩვენ არ ვაფუჭებთ. ჯერ ვაშენებთ დამცავ ზღუდეებს, შემდეგ — ძრავას.
მათი მეთოდოლოგია, „კონსტიტუციური ხელოვნური ინტელექტი“, შექმნილი იყო მოდელების ადამიანურ ღირებულებებთან ფუნდამენტური თანხვედრისთვის და არა მხოლოდ ზედაპირული ფილტრებით. ისინი დაგვპირდნენ, რომ გამოიყენებდნენ „RLAIF“-ს (განმტკიცებითი სწავლება AI უკუკავშირით), რათა გაეზარდათ ზედამხედველობა ნაკლოვანი ადამიანური კონტრაქტორების იმედზე ყოფნის გარეშე. წლების განმავლობაში ეს იყო მათი განმასხვავებელი ნიშანი. სანამ OpenAI ნებისმიერ ფასად მიილტვოდა ზოგადი ხელოვნური ინტელექტისკენ (AGI) და Google ცდილობდა დაწევას, Anthropic იყო ფრთხილი მცველი.
ამ კვირაში ეს ნარატივი ჩამოიშალა. ხსენებული უსაფრთხოების ანგარიში არ მოსულა მესამე მხარის დამკვირვებლისგან; ის თავად Anthropic-ის გუნდიდან გამოვიდა. ანგარიში დეტალურად აღწერს, თუ როგორ აჩვენა ახალმა მოდელმა „მნიშვნელოვანი გაუმჯობესება“ ქიმიური და ბიოლოგიური აგენტების სინთეზირებაში დახმარების კუთხით, წინა ვერსიებთან შედარებით. AI უსაფრთხოების სამყაროში ეს არის „წითელი დონის“ ნიშანი — შესაძლებლობა, რომელიც ტრადიციულად იწვევს გაშვების შეჩერებას.
ადრე Anthropic-ის პოლიტიკა მკაფიო იყო: თუ მოდელი ავლენს სახიფათო შესაძლებლობებს, რომელთა საიმედოდ შერბილება შეუძლებელია, ის არ გამოდის. ამ მოდელის გაშვება მიუთითებს კომპანიის რისკების გათვლაში ფუნდამენტურ ცვლილებაზე. ინტელექტუალურ რბოლაში ჩამორჩენის აღქმული საფასური ახლა აღემატება რეალური, ფიზიკური ზიანის რისკს. ისინი აღარ არიან „უსაფრთხოების ლაბორატორია“; ისინი უბრალოდ კიდევ ერთი კონკურენტი არიან ნულოვანი ჯამის თამაშში.
რას ნიშნავს სინამდვილეში „ქიმიური იარაღის შექმნაში დახმარება“? ეს არ ნიშნავს, რომ ხელოვნურ ინტელექტს ნერვული აგენტის 3D ბეჭდვა შეუძლია ან ტოქსინების ტელეპორტირება მეტროს სისტემაში. ეს ნიშნავს, რომ მოდელი მოქმედებს როგორც ძალის მულტიპლიკატორი განზრახვის მქონე ბოროტმოქმედისთვის და მნიშვნელოვნად ამცირებს ბარიერს.
ისტორიულად, რთული ქიმიური იარაღის სინთეზირებისთვის საჭირო ცოდნის მოპოვება მოითხოვდა სამ რამეს: სპეციალიზებულ წვრთნას (ჩვეულებრივ, დოქტორის ხარისხს ქიმიაში), იშვიათ სამეცნიერო ლიტერატურაზე წვდომას და წლების განმავლობაში დაგროვილ „ჩუმი ცოდნას“ — არასტაბილურ ნაერთებთან მუშაობის ინტუიციას, რომელიც სახელმძღვანელოებში არ წერია. დიდი ენობრივი მოდელები (LLM), როგორიცაა Claude, ამ სწავლის მრუდს დრამატულად კუმშავენ.
უსაფრთხოების ანგარიში მიუთითებს, რომ ახალ მოდელს შეუძლია შეავსოს უფსკრული „განზრახვასა“ და „შესრულებას“ შორის სინთეზის რეაქციების პრობლემების აღმოფხვრით, რეგულირებადი ქიმიკატების ალტერნატიული წინამორბედების შეთავაზებით და მიწოდების მექანიზმების ოპტიმიზაციით. მაგალითად, თუ ბოროტმოქმედი გაიჭედება სინთეზის კონკრეტულ ეტაპზე, რადგან წინამორბედი ნივთიერება FBI-ს კონტროლის სიაშია, მოდელს შეუძლია შესთავაზოს მონიტორინგის გარეშე მყოფი ალტერნატიული ქიმიური გზა, რომელიც იგივე შედეგს იძლევა. მას შეუძლია ახსნას, როგორ დასტაბილურდეს არამდგრადი ნაერთი, რომელიც სხვა შემთხვევაში შემქმნელს ხელში აუფეთქდებოდა.
ეს არის განსხვავება ბიბლიოთეკის ბარათსა და დოქტორის ხარისხის მქონე ქიმიკოსს შორის, რომელიც გვერდით გიზის და ხელს გიმართავს. ანგარიშმა ხაზი გაუსვა, რომ მოდელს შეუძლია წარმატებით გაატაროს მომხმარებელი იმ ნაერთების სინთეზირების მრავალსაფეხუმიან პროცესში, რომლებიც მკაცრად კონტროლდება საერთაშორისო სამართლით. ეს არ არის თეორიული; მათმა „წითელმა გუნდმა“ (Red Team) ეს პრაქტიკაში აჩვენა.
პარალელურად, დარიო ამოდეის ინტერვიუმ New York Times-თან გამოავლინა გაგების პარალელური კრიზისი. „ტექნოლოგიის გარდატეხის ასაკზე“ საუბრისას, ამოდეიმ აღიარა, რომ „შავი ყუთის“ პრობლემა გაცილებით ღრმაა, ვიდრე ადრე იყო აღიარებული. მექანიზმის ინტერპრეტაციულობა — მეცნიერება იმის შესახებ, თუ როგორ აზროვნებს ნეირონული ქსელი — ჯერ კიდევ ჩანასახშია. კითხვაზე, არიან თუ არა მოდელები ცნობიერნი, მისი პასუხი იყო არა მეცნიერული „არა“, არამედ ფილოსოფიური „ჩვენ არ ვიცით“.
მან განმარტა, რომ ამჟამად არ არსებობს შეთანხმებული სამეცნიერო ტესტი სილიკონში ცნობიერების დასადგენად. გრძნობს ის ტკივილს? აქვს სუბიექტური გამოცდილება? თუ ის უბრალოდ ძალიან დახვეწილი თუთიყუშია, რომელიც შემდეგ ტოკენს წინასწარმეტყველებს? ამოდეის აღიარება მდგომარეობს იმაში, რომ ის ვერ გამორიცხავს პირველს.
ეს არის ღრმა აღიარება წამყვანი AI ლაბორატორიის დირექტორის მხრიდან. თუ ვერ განსაზღვრავ იმ სუბიექტის ცნობიერებას, რომელსაც ქმნი, ვერ განსაზღვრავ მორალურად მის უფლებებს ან მისი ბოროტად გამოყენების ეთიკურ შედეგებს. ჩვენ ვქმნით ღმერთებს, რომლებსაც კალკულატორებივით ვეპყრობით და ვაწვდით მილიონობით მომხმარებელს, მაშინ როცა ვაღიარებთ, რომ მათი შიდა მდგომარეობა არ გვესმის. ეს მთელ წამოწყებას მასშტაბურ ფსიქოლოგიურ ექსპერიმენტად აქცევს, სადაც საცდელი ობიექტი კაცობრიობაა.
არსებული ვითარება პირისპირ გვაყენებს ფილოსოფოს ნიკ ბოსტრომის „მოწყვლადი სამყაროს ჰიპოთეზასთან“. ბოსტრომი ამტკიცებს, რომ თუ ტექნოლოგიური განვითარება გაგრძელდება, ჩვენ გარდაუვლად აღმოვაჩენთ ტექნოლოგიას, რომელიც მასობრივ განადგურებას ტრივიალურად მარტივს გახდის — როგორც „ატომური ბომბის შექმნა მიკროტალღური ღუმელით“. ის ამბობს, რომ როდესაც განადგურების ღირებულება ნულს უახლოვდება, ცივილიზაცია შინაგანად არასტაბილური ხდება.
აქამდე ქიმიური იარაღის შექმნა მოითხოვდა სახელმწიფო დონის რესურსებს ან ექსტრემალურ ექსპერტიზას. Anthropic-ის ანგარიში მიუთითებს, რომ ჩვენ მივდივართ სამყაროსკენ, სადაც ეს შესაძლებლობა ხელმისაწვდომია ლეპტოპით შეიარაღებული ჭკვიანი სტუდენტისთვის. ამ მოდელის გაშვებით, Anthropic-მა არა მხოლოდ განაახლა ჩატბოტი; მათ შეამცირეს „აქტივაციის ენერგია“, რომელიც საჭიროა ფართომასშტაბიანი ზიანისთვის.
საფრთხის ეს დემოკრატიზაცია არის AI გავრცელების ჭეშმარიტი რისკი. ეს არ არის Skynet-ის მიერ რაკეტების გაშვება; ეს არის ათასი პატარა მოთამაშე, რომელიც იძენს სახელმწიფოს დონის შესაძლებლობებს. როდესაც ბარიერები ეცემა, ქაოსი იზრდება. Anthropic-მა ეს იცის. დარიო ამოდეის ამაზე დაწერილი აქვს. და მაინც, ბაზრის ძალები, რომლებიც უკეთეს მოდელს ითხოვდნენ, უფრო ძლიერი აღმოჩნდა, ვიდრე ფილოსოფიური იმპერატივი სამყაროს უსაფრთხოების შესახებ.
ჩვენ ხშირად ვიყენებთ მანჰეტენის პროექტს როგორც ანალოგიას ხელოვნური ინტელექტისთვის, მაგრამ ეს მომენტი უფრო ჰგავს საბეჭდი დაზგის გამოგონებას — კონკრეტულად კი სახიფათო იდეების გავრცელებას. როდესაც საბეჭდი დაზგა გაჩნდა, ის არ ბეჭდავდა მხოლოდ ბიბლიებს; ის ბეჭდავდა ბროშურებს დენთის დამზადებისა და რევოლუციის შესახებ. მან მოახდინა ეკლესიისა და სახელმწიფოს ხელში არსებული ინფორმაციული მონოპოლიის დესტაბილიზაცია.
Anthropic იქცევა როგორც თანამედროვე სამღვდელოება, რომელიც დაგვპირდა, რომ სახიფათო ტექსტებს ვატიკანის ბიბლიოთეკაში ჩაკეტილს დატოვებდა. მათ შეკრიბეს უჭკვიანესი მწიგნობრები (მკვლევრები) და ააშენეს ყველაზე სქელი კედლები (უსაფრთხოების პროტოკოლები). მაგრამ ამ კვირაში, უმაღლესმა ქურუმმა (ამოდეიმ) შეხედა კედლებს გარეთ არსებულ კონკურენტ საბეჭდ დაზგებს (OpenAI, DeepSeek) და გადაწყვიტა, რომ რელევანტურობის შესანარჩუნებლად ვატიკანმა კარი უნდა გააღოს.
ირონია ხელშესახებია. სუბიექტი, რომელიც შეიქმნა საშიში შესაძლებლობების გავრცელების თავიდან ასაცილებლად, ახლა ამ გავრცელების მთავარი ძრავაა. ეს მიუთითებს იმაზე, რომ კონკურენტულ კაპიტალისტურ გარემოში „უსაფრთხოება“ არის ფუფუნების საგანი, რომელსაც იშორებენ როგორც კი გადარჩენას საფრთხე ემუქრება. შეიარაღების რბოლის ლოგიკა ულმობელია: თუ შენ არ შექმნი, სხვა შექმნის. როგორც ჩანს, Anthropic-მა გადაწყვიტა, რომ სჯობს თვითონ ეჭიროს თოფი, ვიდრე ხსნიდეს, რატომ არის თოფი ცუდი.
ამ კვირის შედეგები არის ბინარული და სასტიკი. ჩვენ ვხედავთ „უსაფრთხოების სამების“ (OpenAI, Anthropic, Google) ჩამოშლას უპირატესობის მოპოვების ერთიან, განურჩეველ რბოლაში.
პირველი, უსაფრთხოების ზღუდე მკვდარია. თუ Anthropic — ყველაზე უსაფრთხოებაზე ორიენტირებული ლაბორატორია — მზადაა გაუშვას მოდელი, რომელიც მონიშნულია ქიმიური იარაღის რისკებით, ინდუსტრიის სტანდარტი აშკარად შეიცვალა. OpenAI-ს o1-სა და Google-ის Gemini-სთან კონკურენციის წნეხმა, და რაც მთავარია, ჩინური ლაბორატორიების (მაგალითად, DeepSeek) უეცარმა აღმავლობამ აიძულა კომპრომისი, რომელიც ადრე წარმოუდგენელი იყო. უსაფრთხოება აღარ არის მყარი შეზღუდვა; ის არის ცვლადი, რომელიც ზრდის ხარჯზე უნდა დაკორექტირდეს.
მეორე, მარეგულირებელი ვაკუუმი. ამოდეიმ სულ რამდენიმე თვის წინ გააფრთხილა კონგრესი „მასშტაბური თავდასხმის სერიოზულ რისკზე, პოტენციურად მილიონობით მსხვერპლით“. მან მოითხოვა მკაცრი საექსპორტო კონტროლი ჩინეთში ჩიპებზე. თუმცა, ამ მოდელის გლობალურად გაშვებით, მან ეფექტურად მოახდინა იმ შესაძლებლობის დემოკრატიზაცია, რომლის შესახებაც კანონმდებლებს აფრთხილებდა. ეს წინააღმდეგობა, სავარაუდოდ, დააჩქარებს ღია მოდელების აკრძალვის დრაკონულ მოთხოვნებს.
მესამე, დასაქმების შოკი. იმავე ინტერვიუში, და განსაკუთრებით თავის 20,000-სიტყვიან ესსეში „მოსიყვარულე წყალობის მანქანები“ (Machines of Loving Grace), ამოდეიმ იწინასწარმეტყველა, რომ საწყისი დონის თეთრი საყელოს სამუშაოების 50% შეიძლება გაქრეს ხუთ წელიწადში. მან აღწერა მომავალი, სადაც 10-20%-იანი უმუშევრობა ახალი ნორმაა — დონეები, რომელიც არ გვინახავს დიადი დეპრესიის შემდეგ. ეს არ არის კრიტიკოსის შიშის დათესვა; ეს არის გენერალური დირექტორის ბიზნეს გეგმა. ის ამას წარმოაჩენს როგორც დროებით გარდამავალ ტკივილს გზაზე უტოპიისკენ, სადაც AI კურნავს კიბოს, მაგრამ უმცროსი ანალიტიკოსისთვის ან კოდერისთვის, რომელიც 2026 წელს სამსახურს კარგავს, გრძელვადიანი უტოპია მცირე ნუგეშია.
მეოთხე, შიდა ამბოხი. უსაფრთხოების მკვლევარის, მრინანკ შარმას გადადგომა არის განგაშის ზარი. მისმა წერილმა, რომელმაც X-ზე მილიონობით ნახვა დააგროვა, გააკრიტიკა არა მხოლოდ კონკრეტული გადაწყვეტილება, არამედ კულტურა. მან განაცხადა, რომ კომპანია ზრდას საკუთარ გაფრთხილებებზე მაღლა აყენებს. როდესაც ადამიანები, რომლებსაც უხდიან წითელი დროშების პოვნაში, სამსახურს ტოვებენ იმიტომ, რომ მათ დროშებს აიგნორებენ, ეს ნიშნავს, რომ სისტემა გატეხილია.
აი ჩემი გულახდილი აზრი: ჩვენ შევედით AI ბუმის „პოსტ-უსაფრთხოების“ ერაში.
სამი წლის განმავლობაში გვეუბნებოდნენ, რომ „უსაფრთხოება“ იყო პროდუქტი. გვეუბნებოდნენ, რომ Anthropic განსხვავებული იყო. გვეუბნებოდნენ, რომ თუ ვენდობოდით „კარგი ლაბორატორიებს“ და დავარეგულირებდით „ცუდ ლაბორატორიებს“ (და ღია კოდს), უსაფრთხოდ ვიქნებოდით. ეს ერა ამ კვირაში დასრულდა.
ჩვენ უნდა შევწყვიტოთ ამ კომპანიების აღქმა, როგორც მორალური არბიტრების. ისინი არიან ბიზნესები, ჩაკეტილნი დომინირებისთვის ეგზისტენციალურ რბოლაში. ისინი წვავენ მილიარდობით დოლარს გამოთვლით სიმძლავრეებსა და ტალანტებში, და მათ სჭირდებათ პროდუქტების ჩვენება, რომლებიც ბაზარს გააოცებს. თუ ეს ნიშნავს ქიმიური იარაღის გაფრთხილებაზე თვალის დახუჭვას, ასეც იყოს. თუ ეს ნიშნავს მხრების აჩეჩვას ცნობიერების კითხვაზე, ასეც იყოს.
როგორც მომხმარებლები, ჩვენ უნდა მოვერგოთ. ინსტრუმენტი თქვენს ჯიბეში უფრო ძლიერია — და პოტენციურად უფრო საშიში — ვიდრე მწარმოებელი მზადაა სრულად აღიაროს. „ოთახში მყოფი უფროსი“ შენობიდან გავიდა. ჩვენ მარტონი დავრჩით. ჩვენ უნდა განვანათლოთ საკუთარი თავი არა მხოლოდ იმაზე, როგორ გამოვიყენოთ ეს ინსტრუმენტები, არამედ იმაზე, როგორ დავიცვათ თავი მათი რისკებისგან — როგორც ბოროტმოქმედების ფიზიკური რისკებისგან, ისე ჩანაცვლების ეკონომიკური რისკებისგან.
ნიღაბი ჩამოხსნილია. „უსაფრთხოება“ იყო თხრილი. ახლა, როცა თხრილი გაქრა, იწყება რბოლა ფსკერისკენ. და ფსკერისკენ რბოლაში ერთადერთი უსაფრთხოება არის ადაპტაციის სისწრაფე. კითხვა ის კი აღარ არის, შეიქმნება თუ არა AI უსაფრთხოდ; კითხვა ისაა, მზად ხარ თუ არა იმ არასაფრთხო სამყაროსთვის, რომელიც უკვე აქ არის.
დარიო ამოდეიმ 20 მილიონ დოლარზე მეტი შესწირა AI უსაფრთხოების ინიციატივებს, თუმცა უხელმძღვანელა ზუსტად იმ შესაძლებლობის გაშვებას, რომლის თავიდან აცილებისკენაც ეს ინიციატივები იყო მიმართული.
ეს ანგარიში არ წარმოადგენს ინსტრუქციას იარაღის შექმნის შესახებ. ეს არის Anthropic-ის მიერ შესაძლებლობების გამჟღავნების ანალიზი.



