სტივენ ჰოკინგი შიშობს, რომ ადამიანის, როგორც დედამიწის მბრძანებელი სახეობის ეპოქა მალე დასრულდება
სტივენ ჰოკინგი შიშობს, რომ ადამიანის, როგორც დედამიწის მბრძანებელი სახეობის ეპოქა მალე დასრულდება

სტივენ ჰოკინგს ეშინია, რომ ადამიანები იძულებული გახდებიან, დედამიწიდან გაიქცნენ და ახალი სახლი ეძებონ; ეს კი შეიძლება მხოლოდ დროის საკითხი იყოს.

სახელგანთქმულმა ბრიტანელმა თეორიულმა ფიზიკოსმა წარსულშიც არაერთხელ აღნიშნა, რომ მისი აზრით, კაცობრიობის გადარჩენის საკითხი დამოკიდებული გახდება ჩვენს მოხერხებულობაზე — რამდენად შევძლებთ და გავხდებით მულტიპლანეტური სახეობა.

WIRED-თან ინტერვიუში ჰოკინგმა ხაზგასმით კიდევ ერთხელ გაიმეორა მის მიერ არაერთგზის თქმული, რომ კაცობრიობამ მიაღწია „უკან არდაბრუნების წერტილს“.

ჰოკინგის თქმით, დედამიწის მოსახლეობის ზრდითა და ხელოვნური ინტელექტის განვითარებით წარმოქმნილი უზარმაზარი საფრთხის კვალდაკვალ, კაცობრიობისთვის აუცილებელია მეორე პლანეტური სახლის პოვნა.

იგი შიშობს, რომ ხელოვნური ინტელექტი მალე სუპერ-ინტელექტუალური გახდება — საკმარისი იმისათვის, რათა კაცობრიობა ჩაანაცვლოს.

„ბოთლიდან ჯინი უკვე ამოშვებულია. ვშიშობ, რომ ხელოვნურმა ინტელექტმა შეიძლება სრულად ჩაანაცვლოს ადამიანები“, — უთხრა ჰოკინგმა WIRED-ს.

ეს ნამდვილად არ გახლავთ პირველი საზარელი გაფრთხილება ჰოკინგის მხრიდან. მარტში, The Times-თან ინტერვიუში მან განაცხადა, რომ გარდაუვალია ხელოვნური ინტელექტის მიერ გამოწვეული აპოკალიფსი და ამ ტექნოლოგიის საკონტროლებლად, საჭიროა „მსოფლიო ხელისუფლების გარკვეული ფორმის“ შექმნა.

ჰოკინგი ასევე საუბრობდა საფრთხეზე, რომ ხელოვნური ინტელექტი ხელში იღებს საშუალო კლასის სამუშაო ადგილებს; მისივე აზრით, კატეგორიულად უნდა აიკრძალოს ხელოვნური ინტელექტის გამოყენება სამხედრო მიზნებისთვის.

ორივე შემთხვევაში, როგორც ჩანს, მისი გაფრთხილებები დიდწილად უგულებელყვეს. ჭკვიანი მანქანები უკვე მართლაც იღებენ ხელში სამუშაო ადგილებს, ზოგიერთი ქვეყანა კი, მაგალითად აშშ და რუსეთი მიისწრაფვიან ხელოვნური ინტელექტით მართული იარაღის შექმნისაკენ, რა თქმა უნდა, სამხედრო მიზნებით გამოყენებისათვის.

ბოლო წლებში, ხელოვნური ინტელექტის განვითარება ფართო დაპირისპირების საკითხი გახდა: ზოგიერთი ექსპერტი ჰოკინგის მსგავს არგუმენტებს იშველიებს; მათ შორის არიან SpaceX-სა და Tesla-ს აღმასრულებელი დირექტორი ელონ მასკი და Microsoft-ის დამფუძნებელი ბილ გეიტსი.

მასკიც და გეიტსიც, ხელოვნური ინტელექტის განვითარების პოტენციალს კაცობრიობის გაქრობის საფრთხედ ხედავენ.

მეორე მხრივ, საკმაოდ ბევრი ექსპერტის აზრით, ასეთი შიშები არასაჭირო და შიშისმომგვრელია და აღნიშნავენ, რომ შორსწასული სუპერ-ინტელექტუალური ხელოვნური ინტელექტის მიერ ძალაუფლების ხელში აღების სცენარებმა შესაძლოა დაამახინჯოს საზოგადოების აღქმა მისადმი.

მიუხედავად ამისა, შეიძლება ითქვას, რომ ჰოკინგის შეშფოთება გარკვეულწილად მართებულია.

„თუკი ადამიანები ქმნიან კომპიუტერულ ვირუსებს, ვიღაც შექმნის ხელოვნურ ინტელექტს, რომელიც გააუმჯობესებს და ჩაანაცვლებს საკუთარ თავს“, — უთხრა ჰოკინგმა ინტერვიუში WIRED-ს.

„ეს იქნება სიცოცხლის ახალი ფორმა, რომელიც ადამიანებს ჩაანაცვლებს“.

როგორც ჩანს, ჰოკინგი გულისხმობდა ხელოვნური ინტელექტის განვითარებას, რომელიც ზედმეტად ჭკვიანია, შეუძლია ფიქრი ან უკეთესია ვიდრე ადამიანი — მოვლენა, რომელსაც უკვე ეწოდა ტექნოლოგიური სინგულარობა.

თუ როდის მოხდება ეს ყოველივე (საერთოდ თუ მოხდება), ჰოკინგი ზუსტ თარიღებს არ ასახელებს. მაგრამ თუ გავითვალისწინებთ მის წინა გაფრთხილებას, ეს უახლოესი ასი წლის განმავლობაში უნდა მოხდეს, რადგან სწორედ ეს დრო მისცა მან კაცობრიობას დედამიწიდან გასაქცევად, თუკი გადარჩენა გვსურს.

რაც შეეხება სხვებს, მაგალითად, SoftBank-ის აღმასრულებელი დირექტორი მასაიოში სონი და Google-ის უფროსი ინჟინერი რეი კურზვეილი ტექნოლოგიური სინგულარობის დადგომას გაცილებით ადრე, მომდევნო 30 წელიწადში ვარაუდობენ.

თუმცა, ნამდვილად ინტელექტუალური ხელოვნური ინტელექტის შექმნას ჯერ დიდი გზა გვაშორებს და ჯერ ზუსტად არც ის ვიცით, თუ რას მოგვიტანს სინგულარობა.

მართლაც საინტერესოა, გახდება იგი კაცობრიობის აპოკალიფსის მაცნე თუ დასაბამს დაუდებს ახალ ეპოქას, რომელშიც ერთმანეთის გვერდიგვერდი იარსებებენ ადამიანები და მანქანები?
ნებისმიერ შემთხვევაში, ხელოვნური ინტელექტის პოტენციალის გამოყენება შესაძლებელია როგორც კარგი, ისე ცუდი მიზნებისთვის, რაც დანამდვილებით მოითხოვს უსაფრთხოების ზომების მიღებას.

მომზადებულია wired.com-ის მიხედვით