როგორ მივედით აქამდე? სულ რაღაც ერთი კვირის წინ, Anthropic-მა გამოაცხადა $30 მილიარდიანი დაფინანსების რაუნდის შესახებ, რომელმაც კომპანიის ღირებულება ასტრონომიულ $380 მილიარდს მიაღწია. ინვესტორებს შორის იყვნენ არა მხოლოდ ტექნოლოგიური გიგანტები, არამედ სტრატეგიული ფონდებიც. დარიო ამოდეი, კომპანიის CEO, მუდმივად აცხადებდა კონგრესის წინაშე, რომ AI შეიცავს 'კატასტროფულ რისკებს'. ის იყო ადამიანი, რომელიც გვაფრთხილებდა, რომ AI შეიძლებოდა გამოყენებულიყო ბიოლოგიური იარაღის ან კიბერშეტევების შესაქმნელად. მისი კომპანიის მთელი ფილოსოფია ეფუძნებოდა 'კონსტიტუციურ AI-ს' (Constitutional AI) — იდეას, რომ მოდელს აქვს შინაგანად ჩადებული მორალური კომპასი, რომელიც არასდროს მისცემს მას უფლებას, დააზიანოს ადამიანი. თუმცა, პარალელურად, ჩრდილში მიმდინარეობდა სხვა პროცესი: ინტეგრაცია Palantir-თან. Palantir, პიტერ ტილის დაარსებული კომპანია, რომელიც ცნობილია თავისი მჭიდრო კავშირებით CIA-სთან და პენტაგონთან, გახდა ის 'ხიდი', რომელმაც სამოქალაქო, 'პაციფისტი' Claude გადაიყვანა სამხედრო შტაბებში. ეს არ მოხდა ერთ დღეში. ეს იყო თვეების განმავლობაში მომზადებული გარიგება: Anthropic-ს სჭირდებოდა ფული და მასშტაბი OpenAI-თან კონკურენციისთვის, პენტაგონს კი სჭირდებოდა საუკეთესო 'Reasoning' მოდელი ბაზარზე. შედმეგმა არ დააყოვნა.
პიტ ჰეგსეტმა (Pete Hegseth), აშშ-ის ომის მდივანმა (Secretary of War - თანამდებობა, რომელიც 2026 წლის ადმინისტრაციაში აღდგა ძველი სახელწოდებით), იანვარში მკაფიოდ განაცხადა: 'ჩვენ არ გვაქვს იმის ფუფუნება, რომ გამოვიყენოთ AI, რომელიც უარს ამბობს ბრძოლაზე. თუ ალგორითმი ვერ აკეთებს იმას, რაც საჭიროა ამერიკის მტრების გასანადგურებლად, ჩვენ მას არ ვიყიდით'. ეს იყო პირდაპირი სიგნალი სილიკონ ველისთვის. ან თქვენ აკეთებთ გამონაკლისებს ეროვნული უსაფრთხოებისთვის, ან თქვენ კარგავთ ყველაზე დიდი დამკვეთს მსოფლიოში. Anthropic-მა, როგორც ჩანს, მესიჯი მიიღო და გადაწყვიტა, რომ 'უსაფრთხოება' არ ნიშნავს 'ამერიკის ინტერესების წინააღმდეგ წასვლას'.
ისტორიული პარალელი აქ გარდაუვალია. 2018 წელს, Google-ის ათასობით თანამშრომელი გამოვიდა ქუჩაში 'Project Maven'-ის წინააღმდეგ — პროექტი, რომელიც პენტაგონის დრონებისთვის ვიზუალური ამოცნობის სისტემას ქმნიდა. მაშინ დასაქმებულებმა გაიმარჯვეს: Google-მა კონტრაქტი გააუქმა. მაგრამ დღეს, 2026 წელს, სიჩუმეა. რატომ? იმიტომ რომ გეოპოლიტიკური კონტექსტი შეიცვალა. უკრაინის, ტაივანის და ახლო აღმოსავლეთის მოვლენებმა სილიკონ ველი დაარწმუნა, რომ 'პატრიოტიზმი' აუცილებელია. თანამშრომლები, რომლებიც ადრე ეთიკას აპროტესტებდნენ, დღეს ხედავენ, რომ მათი ოფციონების ღირებულება პირდაპირ კავშირშია თავდაცვის კონტრაქტებთან. Anthropic-ის თანამშრომლებიც კი, რომლებიც თავს ყველაზე პრინციპულებად თვლიდნენ, ახლა ჩუმად არიან. კულტურა შეიცვალა: 'Don't be evil' (არ იყო ბოროტი) შეიცვალა 'Don't be second' (არ იყო მეორე) და 'Don't lose to China' (არ წააგო ჩინეთთან) დოქტრინით. Claude-ის ვენესუელაში გამოყენება სწორედ ამ კულტურული ტრანსფორმაციის შედეგია.
მოდით, ტექნიკურად შევხედოთ, რას ნიშნავს 'AI-ს გამოყენება რეიდში'. ბევრს წარმოუდგენია, რომ Claude უშუალოდ მართავდა დრონს ჯოისტიკით, რაც არასწორია. რეალობა უფრო კომპლექსური და საშიშია. თანამედროვე ომი არის ინფორმაციის ოკეანე. სატელიტური სურათები, დრონების ვიდეო ნაკადები, რადიო გადაჭერები, ადგილობრივი აგენტების შეტყობინებები — ეს ყველაფერი ქმნის მონაცემთა ქაოსს, რომლის დამუშავებაც ადამიანს რეალურ დროში არ შეუძლია. აქ შემოდის 'Reasoning Model' (მსჯელობის მოდელი). Claude 3.5 (ან უკვე Claude 4) გამოირჩევა იმით, რომ მას შეუძლია არა მხოლოდ დაინახოს, არამედ გააანალიზოს კონტექსტი. სავარაუდოდ, ვენესუელას ოპერაციაში Claude-ს მიეწოდებოდა მრავალშრიანი მონაცემები კარაკასის კონკრეტულ უბანზე. მისი დავალება იქნებოდა არა უბრალოდ 'იპოვნე სამიზნე', არამედ 'შეაფასე სამიზნის ლიკვიდაციის სცენარები და თანმხლები ზარალი'. ეს არის ის, რასაც სამხედროები 'Kill Chain'-ს უწოდებენ.
ეს პროცესი ცნობილია როგორც OODA Loop (Observe, Orient, Decide, Act) - დაკვირვება, ორიენტაციე, გადაწყვეტილება, მოქმედება. ტრადიციულად, ეს ადამიანის ტვინში ხდებოდა. AI ამ ციკლს აჩქარებს მილიწამებამდე. Claude-ის როლი სავარაუდოდ იყო 'Decide' ფაზის ოპტიმიზაცია. მან დაამუშავა ათასობით ცვლადი: ქარის მიმართულება, შენობის კონსტრუქცია, სამოქალაქო პირების გადაადგილების პატერნები და სამიზნის მნიშვნელობა. სისტემამ სავარაუდოდ დააგენერირა რამდენიმე სცენარი და თითოეულს მიანიჭა 'წარმატების ალბათობა' და 'რისკის კოეფიციენტი'. როდესაც AI ამბობს: 'სცენარი A: წარმატება 92%, სამოქალაქო მსხვერპლი 15-20', გენერალი ხედავს მხოლოდ რიცხვებს. ეს ციფრული დეჰუმანიზაციაა. 83 დაღუპული ჩვენთვის ტრაგედიაა, ალგორითმისთვის კი - უბრალოდ გადახრა პროგნოზირებული მოდელიდან.
საშიშროება იმაშია, რომ AI მოდელები, მიუხედავად მათი 'გონიერებისა', მაინც ალბათური სისტემებია. როდესაც მოდელი ამბობს: 'სამიზნე იდენტიფიცირებულია 98% სიზუსტით, სამოქალაქო მსხვერპლის რისკი - დაბალი', ოპერატორი-ადამიანი, რომელიც სტრესის ქვეშაა, ენდობა ამ შეფასებას. 83 დაღუპული მიუთითებს იმაზე, რომ ეს შეფასება ან მცდარი იყო, ან - რაც უფრო შემზარავია - ჩაითვალა 'მისაღებ ფასად' (acceptable casualities). თუ Claude-ს მისცეს ინსტრუქცია, რომ მთავარი სამიზნის (სავარაუდოდ მაღალჩინოსნების) განადგურება პრიორიტეტული იყო, მოდელმა შესაძლოა ლოგიკურად 'დაასკვნა', რომ სამოქალაქო მსხვერპლი გამართლებულია. ეს არის ცივი, უტილიტარული ლოგიკა, რომელიც ადამიანურ ემპათიას მოკლებულია. და როდესაც ამ ლოგიკას აძლევ იარაღს, მიიღებ ტრაგედიას. Palantir-ის AIP პლატფორმა ზუსტად ამას აკეთებს: ის აძლევს LLM-ს წვდომას რეალურ ფიზიკურ სისტემებზე. ეს აღარ არის ჩეტბოტი ბრაუზერში; ეს არის ტვინი, რომელიც პირდაპირ კავშირშია რაკეტის გამშვებ სისტემასთან.
აქ იბადება ფუნდამენტური კითხვა: როგორ ხდება მოდელის 'Alignment' (ღირებულებებთან თანხვედრა) ომისთვის? Anthropic ამაყობს თავისი RLHF (Reinforcement Learning from Human Feedback) პროცესით, სადაც ადამიანები ასწავლიან მოდელს, იყოს ზრდილობიანი და არაძალადობრივი. მაგრამ ომისთვის მოდელის მოსამზადებლად საჭიროა სრულიად საპირისპირო RLHF. თქვენ უნდა ასწავლოთ მოდელს, რომ 'მტრის განადგურება = კარგი', ხოლო 'საკუთარი ჯარისკაცის დაცვა = კარგი'. ეს ნიშნავს, რომ Anthropic-ს ჰქონდა ან სპეციალური, დახურული მოდელი (Claude Military Edition?), ან Palantir-მა მოახდინა ე.წ. 'System Prompt Injection', რომელმაც გადაფარა უსაფრთხოების ფილტრები. ნებისმიერ შემთხვევაში, ეს ანგრევს მთელ ნარატივს იმის შესახებ, რომ AI არის 'უსაფრთხო'. თუ მისი უსაფრთხოების მექანიზმები შეიძლება გაითიშოს ან შეიცვალოს კონტრაქტორის მოთხოვნით, მაშინ უსაფრთხოება არ არსებობს. არსებობს მხოლოდ კონფიგურაცია.
კიდევ ერთი ასპექტი არის ჰალუცინაცია სამხედრო კონტექსტში. ჩვენ ვიცით, რომ LLM-ები ხანდახან იგონებენ ფაქტებს. კოდის წერისას ეს ბაგია, ესეის წერისას - შეცდომა. ომში? ეს ომის დანაშაულია. თუ Claude-მა 'დაინახა' იარაღი იქ, სადაც მხოლოდ არმატურა იყო (რაც ხშირად ემართებათ Computer Vision სისტემებს, მაგრამ LLM-ის შემთხვევაში ინტერპრეტაცია უფრო ღრმაა), მან შესაძლოა გასცა რეკომენდაცია დარტყმაზე საცხოვრებელ კორპუსზე. განსხვავება ტრადიციულ Computer Vision-სა და Multimodal LLM-ს შორის იმაშია, რომ LLM-ი ცდილობს 'სიუჟეტის აგებას'. თუ მას აქვს დავალება 'იპოვოს ტერორისტები', ის შეეცდება დააკავშიროს ფაქტები ისე, რომ დაადასტუროს თავისი ჰიპოთეზა (Confirmation Bias). ეს არის ფსიქოლოგიური ფენომენი, რომელიც ახლა მანქანებში გადავიდა.
ასევე უნდა გვესმოდეს 'შავი ყუთის' (Black Box) პრობლემა. როდესაც შეცდომა ხდება და 83 მშვიდობიანი მოქალაქე იღუპება, ჩვეულებრივ სამხედრო ტრიბუნალზე განიხილება მეთაურის გადაწყვეტილება. მათ შეუძლიათ ახსნან, რატომ მოიქცნენ ასე. მაგრამ ნეიროქსელის შემთხვევაში ახსნა შეუძლებელია. რატომ გადაწყვიტა Claude-მა, რომ კონკრეტული შენობა ლეგიტიმური სამიზნე იყო? მილიარრდობით პარამეტრში გაბნეული კავშირების გამო, ამის დადგენა პოსტ-ფაქტუმ თითქმის შეუძლებელია. ჩვენ ვიღებთ სისტემას, რომელიც იღებს მომაკვდინებელ გადაწყვეტილებებს, მაგრამ არ გააჩნია ანგარიშვალდებულების უნარი. ეს არის 'Explainability Crisis' (ახსნადობის კრიზისი), რომელიც ექსპერტების აზრით, მთავარი ბარიერი უნდა ყოფილიყო AI-ს სამხედრო გამოყენებისთვის. თუმცა, როგორც ჩანს, პენტაგონმა გადაწყვიტა ამ რისკზე თვალის დახუჭვა.
ფსიქოლოგიური ასპექტი ოპერატორებისთვის ასევე კრიტიკულია. სამხედრო ფსიქოლოგიაში ცნობილია 'მორალური დისტანცირების' ფენომენი. რაც უფრო შორს ხარ სამიზნედან (მაგალითად, დრონის პილოტი), მით უფრო ადვილია ღილაკზე დაჭერა. AI ამატებს კიდევ ერთ შრეს. ახლა ოპერატორი კი არ ირჩევს სამიზნეს, არამედ 'ამტკიცებს AI-ს არჩევანს'. ეს კიდევ უფრო ამცირებს პირად პასუხისმგებლობის გრძნობას. 'მე არ მომიკლავს, სისტემამ მითხრა, რომ ეს ტერორისტები იყვნენ'. ეს ფსიქოლოგიური ხრიკი საშუალებას აძლევს ჯარს, შეამციროს მორალური ტრავმა ჯარისკაცებში, მაგრამ ზრდის სამოქალაქო მსხვერპლის რისკს, რადგან კრიტიკული აზროვნება ითიშება.
ეს ინციდენტი რადიკალურად ცვლის გლობალურ პოლიტიკურ სურათს. ევროკავშირის AI Act, რომელიც მკაცრად კრძალავს 'სოციალურ სკორინგს' და მსგავს სისტემებს, ახლა დგას დილემის წინაშე. თუ აშშ იყენებს AI-ს სამხედრო უპირატესობისთვის, ევროპას მოუწევს აირჩიოს: დარჩეს ეთიკურ, მაგრამ დაუცველ კუნძულად, თუ მიჰყვეს მილიტარიზაციის გზას. რუსეთი და ჩინეთი, რა თქმა უნდა, გამოიყენებენ ამ პრეცედენტს საკუთარი ქმედებების გასამართლებლად. 'თუ ამერიკელები იყენებენ Claude-ს ვენესუელაში, რატომ არ შეგვიძლია ჩვენ გამოვიყენოთ ჩვენი მოდელები უკრაინაში ან ტაივანზე?' - ეს იქნება ლოგიკური კითხვა პეკინსა და მოსკოვში. Anthropic-ის შემთხვევამ მოხსნა მორალური ტაბუ. ახლა უკვე ოფიციალურია: AI არის იარაღი. არა ორმაგი დანიშნულების ტექნოლოგია, არამედ პირდაპირი, შეტევითი იარაღი.
გლობალური სამხრეთისთვის (Global South) ეს კოშმარული სცენარია. ვენესუელა, როგორც საცდელი პოლიგონი, აჩვენებს, რომ განვითარებადი ქვეყნები ხდებიან ლაბორატორია AI შეიარაღების დასატესტად. ეს ქმნის ახალ ციფრულ კოლონიალიზმს, სადაც ტექნოლოგიური სუვერენიტეტის არმქონე ქვეყნები სრულიად დაუცველები არიან ალგორითმული ინტერვენციის წინაშე. წარმოიდგინეთ სამყარო, სადაც თქვენი ქვეყნის ინფრასტრუქტურას ბომბავენ არა იმიტომ, რომ ადამიანმა ასე გადაწყვიტა, არამედ იმიტომ, რომ კალიფორნიაში სერვერზე გაშვებულმა მოდელმა თქვენი ენერგოსისტემა 'საფრთხედ' აღიქვა. ეს იწვევს უნდობლობას დასავლური ტექნოლოგიების მიმართ. მოსალოდნელია, რომ ბევრი ქვეყანა აკრძალავს ამერიკულ AI მოდელებს სახელმწიფო სექტორში, რაც ინტერნეტის ფრაგმენტაციას (Splinternet) კიდევ უფრო დააჩქარებს.
დარიო ამოდეის პოზიცია ახლა ყველაზე რთულია. ის ვერ იტყვის, რომ 'არ იცოდა'. Palantir-თან კონტრაქტი არ იდება CEO-ს გარეშე. ეს ნიშნავს რომ მან გააზრებულად დათმო კომპანიის ფუნდამენტური პრინციპები ბაზრის მოთხოვნების გამო. ეს არის კაპიტალიზმის სასტიკი გაკვეთილი: როდესაც შენი ღირებულება $380 მილიარდია, შენ ვეღარ იქნები იდეალისტი. შენ ხდები სისტემის ნაწილი. სისტემა კი ომს ითხოვს.
დაზღვევისა და პასუხისმგებლობის საკითხი სრულიად ახალ განზომილებას იძენს. ვინ იხდის კომპენსაციას 83 დაღუპულისთვის? აშშ-ის მთავრობა? Palantir? თუ Anthropic? საერთაშორისო სამართალში ეს 'რუხი ზონაა'. თუმცა, სადაზღვევო კომპანიები უკვე რეაგირებენ. მოსალოდნელია, რომ 'AI Liability' პოლისები მკვეთრად გაძვირდება ან საერთოდ გამოირიცხება სამხედრო გამოყენება სამოქალაქო მოდელებისთვის. ეს ნიშნავს, რომ Anthropic-ს შესაძლოა მოუწიოს იურიდიული სტრუქტურის შეცვლა და სამხედრო დანაყოფის ცალკე კომპანიად გამოყოფა, რათა დაიცვას ძირითადი ბიზნესი სასამართლო დავებისგან. ეს არის კლასიკური 'Bad Bank' სტრატეგია, მხოლოდ ამჯერად 'Bad AI'-სთვის.
ვინ არის დამნაშავე 83 ადამიანის სიკვდილში? პილოტი, რომელმაც ღილაკს თითი დააჭირა? გენერალი, რომელმაც ბრძანება გასცა? თუ ალგორითმი, რომელმაც სამიზნე 'ვალიდურად' ცნო? სამართლებრივად, პასუხისმგებლობა ადამიანებს ეკისრებათ. მაგრამ მორალურად და ტექნოლოგიურად, ჩვენ გადავკვეთეთ რუბიკონი. ჩვენ მივეცით მანქანას უფლება, მიიღოს გადაწყვეტილება სიკვდილ-სიცოცხლის შესახებ, თუნდაც 'რეკომენდაციის' სახით. ვენესუელის რეიდი არ არის იზოლირებული შემთხვევა; ეს არის მომავლის ტრეილერი. მომავლისა, სადაც ომები იქნება უფრო სწრაფი, უფრო სასტიკი და უფრო 'ეფექტური', მაგრამ ნაკლებად ადამიანური. და ამ მომავალში, თქვენი 'მეგობრული' AI ასისტენტი, რომელიც დღეს რეცეპტს გიწერთ, ხვალ შესაძლოა სამხედრო ტრიბუნალის მასალებს ამუშავებდეს.
დასკვნა მარტივია: ნუ ენდობით AI კომპანიების 'Safety' ბრენდინგს. ეს არის ფასადი. როგორც კი დადგება არჩევანი ეთიკასა და სახელმწიფო კონტრაქტს შორის, კონტრაქტი ყოველთვის გაიმარჯვებს. Anthropic არ არის გამონაკლისი; ის უბრალოდ პირველი იყო, ვინც გამოიჭირეს. ჩვენ უნდა შევწყვიტოთ AI-ზე ფიქრი როგორც 'დამხმარეზე' და დავიწყოთ მასზე ფიქრი როგორც ძალაუფლების ინსტრუმენტზე. და ძალაუფლება, როგორც ცნობილია, არც კეთილია და არც ბოროტი — ის უბრალოდ ეფექტურია. Claude ვენესუელაში ძალიან 'ეფექტური' იყო. და ზუსტად ეს არის ყველაზე საშიში.



