top of page
                  ელენე მიქანაძე

მითების დეტექტორის ლაბორატორია 2023

დისტოპიური ჟანრის მოყვარულებს აუცილებლად ექნებათ წარმოდგენილი, თუ რა შორს შეუძლია ტექნოლოგიებს წინსვლა და როგორ რადიკალურად შეიძლება შეცვალოს საზოგადოებრივი ცხოვრება.

 

ჩვენ უკვე ნათლად ვხედავთ, თუ რა სწრაფად განვითარდა ხელოვნური ინტელექტი და აშკარად ვამჩნევთ მის სასიკეთო მხარეებს. მაგრამ რა ხდება, როდესაც ხელოვნური ინტელექტი ე.წ. “ბოროტ ხელში ხვდება”? ან რა შეიძლება მოვიმოქმედოთ, როდესაც გავაცნობიერებთ, რომ მალე შეიძლება საკმაოდ გართულდეს რეალობისა და გამონაგონის გარჩევა ერთმანეთისგან. 

ai-artificial-intelligence-human-robot-brain-pon8h9dclo1fl1u2.gif

AI საშუალებები დეზინფორმაციის გასავრცელებლად

ხელევნური ინტელექტის მიერ გენერირებული ფოტოები

სხვადასხვა AI პროგრამის მიერ გენერირებული ფოტოები

Deepfake
ტექნოლოგიები

 - ჩატბოტები

- smart voice

- ალგორითმი და სხვ.

 

AI დეზინფორმაციის გავლენა 
ეროვნულ უსაფრთხოებაზე

რა საფრთხეები არსებობს?

Deepfake მაგალითები

Facebook-სა და Youtube-ზე გავრცელდა ყალბი ვიდეო, რომელშიც ზელენსკის უცნაურად უმოძრაო ვერსია უკრაინელ ჯარებს სთხოვდა დაეყარათ იარაღი. კლიპი ასევე გამოქვეყნდა Telegram-სა და რუსულ სოციალურ ქსელ VKontakte-ზე,

ზელენსკის სწრაფმა რეაგირება, და სოციალური პლატფორმების სწრაფმა რეაქციამ ხელი შეუწყოს იმას, რომ აღნიშნული deepfake სწრაფად არ გავრცელდა. ასევე ვიდეოში პრეზიდენტი არაბუნებრივად გამოიყურება, სახე არ ემთხვევა მის სხეულს და მისი ხმა განსხვავებულად ჟღერს. შესაბამისად, შეგვიძლია ვთქვათ, რომ აღნიშნული deepfake-ს გავრცელება არაეფექტური გამოდგა და თავის თავდპირველ მიზანს ვერ მიაღწია

Anchor 1
download.webp

არსებობს მტკიცებულება, რომ სადაზვერვო სამსახურები იყენებდნენ deep fake ფოტოებს ყალბი სოციალური მედიის ანგარიშების შესაქმნელად

2019 წელს ჟურნალისტებმა აღმოაჩინეს, რომ დაზვერვის ოპერატორებმა შექმნეს ყალბი LinkedIn პროფილი ქეითი ჯონსისთვის უსაფრთხოების პროფესიული ქსელების შესახებ ინფორმაციის ონლაინ შეგროვების მიზნით. მკვლევარებმა გამოავლინეს ქეითი ჯონსის ყალბი ფოტო .

download (1).webp

Liar’s Dividend

ახალი მეთოდი  “Liar’s Dividend”, როდესაც იტყუები, რომ ვიდეო ავთენტური არაა და deep fake-თაა შექმნილი.

ილონ მასკის ერთ-ერთი ვიდეო, რომელშიც ამბობს, რომ მოდელ S-სა და Model X-ს ამ ეტაპზე შეუძლია ავტონომიურად იმოძრაოს უფრო მეტი უსაფრთხოებით, ვიდრე ადამიანს, 7 წელია Youtube-ზეა განთავსებული. მიუხედავად ამისა, ვიდეო  კვლავ ყურადღების ცენტრში მოექცა, როდესაც თვითმართვის ფუნქციის გამოყენებისას მოხდა ავარია და  ადამიანი გარდაიცვალა. 

საზოგადოებას უფრო და უფრო მეტად აცნობიერებს deep fake-ის არსს. ხალხი იმსაც ხვდება, რომ deep fake-ები დროთა განმავლობაში საკმაოდ დაიხვეწა. შესაბამისად, უკვე ძალიან რთული ხდება მათი ამოცნობაც.

სკეპტიკურ საზოგადოებას  ხშირად ეჭვი ეპარება რეალური აუდიო და ვიდეო მტკიცებულებების ავთენტურობაში 

გარდაცვლილის ოჯახმა სარჩელი შეიტანა, თუმცა ავტომწარმოებლის ადვოკატებმა განაცხადეს, რომ ელონ მასკის მრავალი deepfake ვიდეო არის შექმნილი და ეს ვიდეოც ერთ-ერთი მათგანი იყო.

შესაბამიად, ამით მანიპულირებას შეიძლება შეეცადონ პოლიტიკოსები და სხვა პირებიც სასამართლოში მტკიცებულბების წარდგენის უარსაყოფად 

My-project-2023-04-27T173947.342.webp
Anchor 2

სხვადასხვა AI პროგრამის მიერ გენერირებული ფოტოებისგან შექმნილი დეიზინფორმაცია 

აშშ-ში რესპუბლიკურმა ეროვნულმა კომიტეტმა გამოიყენამ ხელოვნური ინტელექტი 30 წამიანი რეკლამის შესაქმნელად იმის საჩვენებლად, თუ როგორი შეიძლება იყოს პრეზიდენტი ჯო ბაიდენის მეორე ვადა. იგი ასახავს გამოგონილ კრიზისებს და ილუსტრირებულია ყალბი სურათებით. 

რა ხდება საქართველოში?

Blue Background
საქართველო-რეგიონები-და-ქალაქები-ახალგაზრდა-ქალის-სახით.jpg

საქართველოში ხელოვნური ინტელექტის მიერ გენერირებული ფოტოები სოციალურ ქსელებში ხშირად ვრცელდება. მათ ძირითადად გასართობი ფუნქცია აქვთ და საშიშროებას არ წარმოადგეს.

 

გასართობი კონტენტის გარდა, საქართველოში ზოგიერთ გავრცელებულ  AI-ს მიერ გენერირებულმა ფოტოებში ნათლად იკვეთება ანტიდასავლური გზავნილები.

Screenshot_7-6
tranpi7_edited
355822764_275572438362012_3166560933655053957_n
353137420_220121517626821_7920053682930415116_n
355878423_871346420579548_1754175641669979617_n

ბოლო პერიოდში აქტიურად ვრცელდება ერთი და იგივე შინაარსის პოსტები LGBT თემატიკასთან დაკავშირებით. მაგალითად,  გავრცელდა ფოტო, რომელზეც ეკლესიის წინ დანთებულია ცეცხლი და შეკრებილ ადამიანებს ფერადი დროშები უჭირავთ ხელში.პოსტის თანახმად, ეს “მართლმადიდებლური ტაძარია უცხოეთში”. ბოლო კვირეების განმავლობაში კი კვლავ გავრცელდა მსგავსი ფოტოები წარწერით:  “ჩვენ ვკითხეთ პოპულარულ ნეირონულ ქსელს ChatGPT-ს, როგორ იქნება საქართველოში ჩვეულებრივი ახალი ამბავი მასმედიაში 2050 წელს, როდესაც ჩვენ გავხდებით ევროპული საზოგადოების ნაწილი. ხოლო მიღებული ტექსტისთვის Midjourney-მ დახატა ილუსტრაციები” .

აქ მოცემული ფოტო Midjourney-ს მიერაა შექმნილი და ის აგენერირებს ფოტოებს მხოლოდ და მხოლოდ ზუსტი მითითებების დროს. მას არ შეუძლია მომავლის განსაზღვრა. აღნიშნულ პოსტებში აშკარად ვლინდება ანტიდასავლური პროპაგანდის ნარატივები

ექსპერტი მაიკო რატიანი საქართველოში გავრცელებული AI დეზინფორმაციების და სხვა მაგალითების შესახებ 

inline-images_pretrubation-768x462.png

საქართველოში გავრცელებული ერთ-ერთი პირველი მაგალითია “გიორგი აღაპიშვილის ბლოგი”.  პროფილის ფოტოზე გამოსახული ადამიანი საერთოდ არ არსებობს. ფოტოს დეტალების ანალიზი და გენერირებული ფოტოების დამახასიათებელი ნიშნები გვიჩვენებს, რომ ფოტო  პროპგრამულად იყო  შექმნილი. "გიორგი აღაპიშვილს” პრო-სახელისუფლებო გვერდი ჰქონდა და ხელისუფლების მიმართ კრიტიკულად განწყობილი აქტივისტების წინააღმდეგ ავრცელებდა პოსტებს.

საქართველოში ხშირად ვრცელდება deepfake ტექნოლოგიებისგან შექმნილი ვიდეოები. ბოლო პერიოდში დეზინფორმაციული კამპანიების სამიზნე გახდა ევროპარლამენტარი ვიოლა ფონ კრამონი. ერთ-ერთი ასეთი დეზინფორმაცია კი deepfake ტექნოლოგიით იყო შექმნილი, თითქოს ვიოლა ფონ კრამონი ქორწილში ნასვამ მდგომარეობაში იმყოფებოდა. 

viola.png
artificial-intelligence_edited.jpg

რას შეიძლება ველოდოთ მომავალში?

მომავლის განსაზღვრა დიდ სირთულეებთანაა დაკავშირებული. ხელოვნურ ინტელექტს აქვს როგორც დადებით, ასევე უარყოფითი მხარეები. დეზინფორმაციის შესამოწმებელი მექანიზმების ხელოვნური ინტელექტის დახმარების მომავალში კიდევ უფრო დაიხვეწება და განვითარდება. მიუხედავად ამისა, ვფიქრობ, რომ AI -ს მიერ გენერირებული ფოტოებსა და deepfake ტექნოლოგიას ნამდვილად შეუძლიათ გავლენა იქონიონ საზოგადოების დესტაბილიზაციასა და ეროვნულ უსაფრთხოებაზე. ხელონურვა ინტელექტმა "seeing is believing¨ კონცეფცია სრულად ამოატრიალა. შესაბამისად, საზოგადოება მუდმივად ფრთხილად უნდა დააკვირდეს ინტერნეტ სივრცეში გავრცელებულ მასალებს.

bottom of page