შეჩერდეს ხელოვნური ინტელექტის ექსპერიმენტები — ილონ მასკი და ტექნოლოგიური კომპანიები ღია წერილს აქვეყნებენ #1tvმეცნიერება
შეჩერდეს ხელოვნური ინტელექტის ექსპერიმენტები — ილონ მასკი და ტექნოლოგიური კომპანიები ღია წერილს აქვეყნებენ #1tvმეცნიერება

მილიარდერი ილონ მასკი და ექსპერტთა ნაწილი გამოდიან მოწოდებით, შეჩერდეს მძლავრი ხელოვნური ინტელექტის სისტემების განვითარება, რათა საკმარისი დრო გვქონდეს მათ უსაფრთხოებაში დასარწმუნებლად.

Microsoft-ის მიერ მხარდაჭერილი კომპანია OpenAI-ს მიერ GPT-4-ის გამოშვების საპასუხოდ, გამოქვეყნდა ღია წერილი, რომელსაც ხელს ათასზე მეტი ადამიანი აწერს, მათ შორის მასკი და Apple-ის თანადამფუძნებელი სტივ უოზნიაკიც.

კომპანიის განცხადებით, უახლესი მოდელი წინა ვერსიაზე გაცილებით მძლავრია; სწორედ წინა ვერსიაზე მუშაობდა ChatGPT — ბოტი, რომელსაც ტექსტების გენერირება უმცირესი მოთხოვნის საფუძველზე შეუძლია.

„ადამიანთან კონკურენტუნარიანი სიჭკვიანის მქონე ხელოვნური ინტელექტის სისტემები შეიძლება სერიოზულ რისკებს ფლობდეს საზოგადოებისა და კაცობრიობისთვის. ხელოვნური ინტელექტის მძლავრი სისტემები მხოლოდ მას შემდეგ უნდა განვითარდეს, რაც დავრწმუნდებით, რომ მათი ეფექტები დადებითი იქნება, რისკები კი მართვადი“, — წერენ ღია წერილში, სათაურით „შეაჩერე ხელოვნური ინტელექტის გიგანტური ექსპერიმენტები“.

მასკი OpenAI-ს თავდაპირველი ინვესტორი იყო, წლები გაატარა მის საბჭოში; ამავე დროს, მისი საავტომობილო კომპანია Tesla ქმნის ხელოვნური ინტელექტის სისტემებს თავის თვითმავალი ტექნოლოგიებისა და სხვა გამოყენებისთვის.

წერილის მთავარი ხელმომწერია მასკის მიერ დაფუძნებული „სიცოცხლის მომავლის ინსტიტუტი“ და ხელს ასევე აწერენ როგორც გამორჩეული კრიტიკოსები, ისე OpenAI-ს კონკურენტები, მაგალითად, კომპანია Stability AI-ს ხელმძღვანელი იმად მოსტაკი.

ხელოვნური ინტელექტის კანადელმა პიონერმა, იოშუა ბენგიომ, რომელიც ასევე ხელმომწერია, მონრეალში გამართულ ვირტუალურ კონფერენციაზე განაცხადა, რომ „საზოგადოება მზად არ არის“ ასეთი მძლავრი ხელსაწყოსთვის და შეიძლება, ის არასწორად გამოიყენონ.

„მოდი, შევნელდეთ. ჯერ დავრწმუნდეთ, რომ უკეთესი დამცავი ჯებირები გვაქვს, როგორც ეს ბირთვული ენერგიისა და ბირთვული იარაღის შემთხვევაში გავაკეთეთ“, — აღნიშნა ბენგიომ.

წერილი ციტირებს OpenAI-ს დამფუძნებლის, სემ ალტმენის ბლოგს, რომელშიც ის წერს, რომ „გარკვეულ მომენტში, შეიძლება მნიშვნელოვანი გახდეს დამოუკიდებელი მიმოხილვის ჩატარება სამომავლო სისტემების წვრთნის დაწყებამდე“.

„ვეთანხმებით. ეს მომენტი ახლაა. გამომდინარე აქედან, მოვუწოდებთ ხელოვნური ინტელექტის ლაბორატორიებს, დაუყოვნებლივ, სულ მცირე ექვსი თვით შეაჩერონ GPT-4-ზე უფრო მძლავრი ხელოვნური ინტელექტის სისტემებზე მუშაობა“, — წერენ წერილის ავტორები.

ისინი მოუწოდებენ მთავრობებს, რომ მორატორიუმი შემოიღონ, თუკი კომპანიები მათ წინადადებას არ დათანხმდებიან.

ექვსი თვე უნდა გამოიყენონ უსაფრთხოების პროტოკოლების, ხელოვნური ინტელექტის მართვის სისტემების შემუშავებაში და კვლევების იმაზე ფოკუსირებაში, რომ უზრუნველვყოთ ხელოვნური ინტელექტის სისტემების მეტი სიზუსტე, უსაფრთხოება, სანდოობა და ლოიალურობა.

წერილში არაფერს ამობენენ GPT-4-ის საფრთხეზე, მაგრამ ერთ-ერთი ხელმომწერი, ნიუ-იორკის უნივერსიტეტის მკვლევარი გარი მარკუსი დიდი ხანია ირწმუნება, რომ ჩატბოტები დიდი მატყუარები არიან და აქვთ პოტენციალი, რომ ვინმემ დეზინფორმაციის უსწრაფესად გავრცელებაში გამოიყენოს.

მომზადებულია Agence France-Presse-ის მიხედვით.