მაგნიტო-რეზონანსული ტომოგრაფიის დანადგარში ძაღლის მოთავსება და მათ ტვინზე დაკვირვება მაშინ, როდესაც ისინი პარალელურად სახლში გადაღებულ ვიდეოებს უყურებენ, მეცნიერებისთვის მრავლისმთქმელი აღმოჩნდა.
მანქანური სწავლების გამოყენებით, მკვლევართა ჯგუფმა ასევე გაშიფრა ძაღლების გონებაში მიმდინარე ვიზუალური დამუშავების პროცესი. შედეგად კი აღმოაჩინეს შთამბეჭდავი განსხვავება ძაღლებისა და ადამიანების აღქმას შორის: ძაღლები ვიზუალურად უფრო მეტად არიან მორგებული მოქმედებებს, ვიდრე თავად ამ მოქმედების შემსრულებლები.
ეს კი შეიძლება მნიშვნელოვანი ნაწილი იყოს ძაღლების შემეცნების ფაზლში, რადგან გვიჩვენებს, რას ანიჭებს ძაღლის თავის ტვინი უპირატესობას, როდესაც საქმე მხედველობას ეხება.
„მიუხედავად იმისა, რომ ჩვენი ნაშრომი მხოლოდ ორ ძაღლს ეფუძნება, გვთავაზობს კონცეფციის მტკიცებულებას, რომ ეს მეთოდები ძაღლებში მუშაობს. იმედი მაქვს, ეს კვლევა გზას გაუხსნის ძაღლების ამ მეთოდით სხვა კვლევებს, ასევე სხვა სახეობებზეც. შედეგად კი უფრო მეტ მონაცემს მივიღებთ იმის შესახებ, როგორ მუშაობს სხვადასხვა ცხოველის გონება“, — ამბობს ემორის უნივერსიტეტის ყოფილი და ამჟამად პრინსტონის უნივერსიტეტის ნეირომეცნიერი ერინ ფილიპსი.
როგორც ფილიპსმა აღნიშნა, კვლევა ორ ძაღლზე, დეიზისა და ბუბოზე ჩატარდა. მკვლევრებმა ძაღლებისთვის სპეციფიკური სამი 30-წუთიანი ვიდეო Gimbal სტაბილიზატორისა და სელფის ჯოხით გადაიღეს. ვიდეოებში ასახული იყო ძაღლების სირბილი, ძაღლებთან ადამიანთა ურთიერთქმედება, რომლებიც მათ ჯილდოებს აძლევენ. სხვა აქტივობებს შორის იყო მანქანის გავლა, ადამიანთა ერთმანეთთან ურთიერთქმედება, ირმის მიერ გზის გადაკვეთა, კატა სახლში და ლაგამით მოსიარულე ძაღლები.
დეიზის და ბუბოს ეს ვიდეოები სამ 30-წუთიან სესიად აყურებინეს, ჯამში 90 წუთი, მაშინ, როდესაც ისინი მაგნიტო-რეზონანსული ტომოგრაფიის დანადგარში მოსვენებულ მდგომარეობაში, ლაგამის გარეშე იმყოფებოდნენ.
შესაბამისად, მკვლევრებმა შეძლეს დეიზისა და ბუბოს თავის ტვინის სკანირება მაშინ, როდესაც ისინი დანადგარში ისხდნენ, ფხიზლად იყვნენ, ასევე გაფრთხილების ან კომფორტულ მდგომარეობაში და უყურებდნენ მათ მიერ გადაღებულ ვიდეოებს.
„ჯილდოც კი არ სჭირდებოდათ. სახალისო იყო, რადგან ეს სერიოზული მეცნიერებაა და მასში ბევრი დრო და ძალისხმევაა ჩადებული“, — ამბობს ფილიპსი.
ვიდეომონაცემები დროის აღმნიშვნელით სეგმენტებად იყო დაყოფილი, რათა მომხდარიყო ისეთი კლასიფიკატორების იდენტიფიცირება, როგორიც არის ობიექტები ან მოქმედებები. ეს ინფორმაცია, ისევე როგორც ორივე ძაღლის ტვინის აქტივობა, გადაეცემოდა ნერვულ ქსელს, სახელად Ivis-ს, რომელიც შექმნეს ამ კლასიფიკატორთა მიმართ ტვინის აქტივობის აღსაწერად.
მაგნიტო-რეზონანსული ტომოგრაფიის პროცესში ვიდეოებს ორი ადამიანიც უყურებდა; Ivis-ს მათი მონაცემებიც მიეწოდებოდა.
ხელოვნურმა ინტელექტმა კლასიფიკატორების მიმართ ადამიანის თავის ტვინის მონაცემების 99-პროცენტიანი სიზუსტით აღრიცხვა შეძლო, როგორც ობიექტების, ისე მოქმედებების მიმართ. ძაღლების შემთხვევაში, Ivis-ი ცოტა დაიბნა. საერთოდ არ იმუშავა ობიექტი კლასიფიკატორების შემთხვევაში. თუმცა, მოქმედებების შემთხვევაში, ხელოვნურმა ინტელექტმა ვიზუალური აქტივობები თავის ტვინში 75-88-პროცენტიანი სიზუსტით აღრიცხა.
„ადამიანები ძლიერ ვართ ობიექტებზე ორიენტირებული. ინგლისურ ენაში ათჯერ მეტი არსებითი სახელია, ვიდრე ზმნა, რადგან განსაკუთრებული დამოკიდებულება გვაქვს ობიექტებისთვის სახელის დარქმევასთან. როგორც ჩანს, ძაღლებს ნაკლებად ადარდებთ, ვის ან რას ხედავენ და უფრო მეტად აღელვებთ თავად მოქმედება“, — აღნიშნავს ფსიქოლოგი გრეგორი ბერნსი.
მისივე განცხადებით, ძაღლები ადამიანებისგან მნიშვნელოვნად განსხვავდებიან სამყაროს აღქმის თვალსაზრისით. ისინი განასხვავებენ მხოლოდ იმ ტონებს, რასაც ჩვენ სპექტრის ცისფერ და ყვითელ ნაწილებად აღვიქვამთ, მაგრამ აქვთ მოძრაობისადმი მგრძნობიარე ძალიან ბევრი რეცეპტორი.
ამის მიზეზი შეიძლება ის იყოს, რომ ძაღლებს ადამიანებზე მეტად სჭირდებათ ყურადღება გარემოში არსებულ საფრთხეთა მიმართ; ანდაც, შეიძლება ამას რაღაც კავშირი ჰქონდეს სხვა შეგრძნებებთან. შეიძლება ისიც, რომ ორივე მოსაზრება მართებული იყოს. ადამიანები ძლიერ არიან ორიენტირებული ვიზუალზე, მაგრამ ძაღლებში ყველაზე მძლავრია ყნოსვის შეგრძნება — მათ თავის ტვინის დიდი ნაწილი განკუთვნილია ყნოსვითი ინფორმაციის დამუშავებისთვის.
ყნოსვით ინფორმაციაზე ტვინის აქტივობის აღრიცხვა უფრო რთული ექსპერიმენტი იქნება, მაგრამ მისი ჩატარებაც შესაძლებელია.
კვლევა Journal of Visualized Experiments-ში გამოქვეყნდა.
მომზადებულია news.emory.edu-სა და ScienceAlert-ის მიხედვით.