ხელოვნური ინტელექტი: ეთიკური საკითხები

3 ნოემბერი 2019

ავტორი: კრის რისი
ბრიტანეთის კომპიტერული საზოგადოების (BCS) ყოფილი პრეზიდენტი

 

საჭიროა თუ არა, რომ იურისტებმა იფიქრონ იმ ეთიკურ თუ ზნეობრივ საკითხებზე, რომელიც თან ახალვს ხელოვნური ინტელექტის განვითარებას? დაკავშირებულია თუ არა ეს ეთიკური და ზნეობრივი ასპექტები სამართლებრივ საკითხებთან? აღნიშნულ კითხვებზე პასუხის გასაცემად, წინამდებარე სტატიაში განვიხილავთ იმ ძირითად ეთიკურ საკითხებს, რომლებიც წარმოიშობა ხელოვნურ ინტელექტთან მიმართებაში და ასევე მათ ურთიერთკავშირს სამართალთან.

სტატია განიხილავს 6 ეთიკურ თემას:

1. მიკერძოება;

2. ახსნადობა;

3. უვნებლობა;

4. პასუხისმგებლობა ზიანზე;

5. გავლენა დასაქმებაზე და საზოგადოებაზე;

6. ხელოვნური ინტელექტი, რომელიც განასახიერებს ადამიანებს.

ასევე, მიმოვიხილავთ კითხვასაქვს თუ არა ეთიკას მნიშვნელობა ხელოვნურ ინტელექტთან მიმართებაში?

სტატიაში არ იქნება განხილული 2 პოპულარული საკითხი:

.. „ურიკის პრობლემა“ (მაგალითად, თვითმართვადმა სატრანსპორტო საშუალებამ უნდა გადაუხვიოს და შედეგად იმსხვერპლოს ერთი ბავშვი, თუ გააგრძელოს მოძრაობა პირდაპირ და იმსხვერპლოს რამდენიმე ზრდასრული ადამიანი), რადგან მსგავსი სცენარი არ წარმოადგენს ნამდვილ პრობლემას ავტომატიზებული მანქანებისთვისაც კი და ეს საკითხი გარკვევით იყო წამოჭრილი წმინდა თომა აკვინელის მიერ მე -13 საუკუნეში (ორმაგი ეფექტის თეორია);

ხელოვნური ზოგადი ინტელექტის ეთიკური საკითხები (როდესაც ხელოვნური ინტელექტი მოქმედებს ადამიანის მსგავსადსაღ აზრსა და ადამიანურ გონებრივ შესაძლებლობებზე დაყრდნობით), რადგან მე არ ვფიქრობ, რომ ეს განხორციელებადია.

ასე რომ, განვიხილოთ,თითოეული რეალური ეთიკური საკითხი:

მიკერძოება

ხელოვნური ინტელექტის სისტემები მიკერძოებულია, რადგან ჩვენ  ვართ თავად მიკერძოებულნი. ხელოვნური ინტელექტის სისტემებში მიკერძოება წარმოიქმნება ორი ძირითადი მიზეზიდან გამომდინარე: პირველი, უნებლიე მიკერძოება ინჟინრების გონებაში, რომლებიც სისტემას ქმნიან და მეორე, მიკერძოება მონაცემებში

ამ ინჟინრების უმეტესი ნაწილი ევროპასა და აშშ-ში ახალგაზრდა, თეთრი მამაკაცია. ალბათ ამაში ცუდი არაფერია, მაგრამ მათ შეიძლება არც კი იცოდნენ, რომ ისინი ქმნიან სისტემებს, რომლებიც ნამდვილად კარგად მუშაობენ თეთრკანიანებისთვის, მაგრამ ნაკლებად კარგადშავკანიანი ქალბატონებისთვის. მასაჩუსეტსის ტექნოლოგიური ინსტიტუტის (MIT) მედიის ლაბორატორიის ახალგაზრდა, გონიერი შავკანიანი მკვლევარი ქალბატონი, სახელადჯოი ბუოლმვინი შეურაცხყოფილი დარჩა, როდესაც Google-ის სახის ამოცნობის სისტემის მიერ იგი იდენტიფიცირებულ იქნა როგორც გორილა და სისტემამ იქამდე ვერ ამოიცნო ქალბატონი ადამიანად, სანამ მან თეთრი ნიღაბი არ გაიკეთა სახეზე. აღნიშნულის შემდგომ, ჯოიმ ჩაატარა ექსპერიმენტი, რომელშიც დაახლოებით 300  ღია ფერის კანიანი მამაკაცის და ქალის ფოტო და იგივე რაოდენობის მუქი ფერის კანიანი მამაკაცის და ქალის ფოტოა  წარმოდგენილი. სისტემა თითქმის 100% -ით ზუსტი იყო პირველი ნაკრებისთვისღია ფერის კანიანი მამაკაცებისთვის, 90%-ის ფარგლებში მეორე და მესამე კატეგორიისთვის, ხოლო შემაშფოთებლად არაზუსტი – 66% მუქი ფერის კანის მქონე ქალბატონების კატეგორიაში. როდესაც ჯოი ბუოლმვინმა გამოაქვეყნა ექსპერიმენტის შედეგები, Google-მა და Microsoft-მა შეცვალეს თავიანთი ალგორითმები.

ხელოვნური ინტელექტის სისტემები სწავლობენ  მონაცემთა იმ ნაკრებიდან, საიდანაც მიიღეს ტრენინგი. შესაბამისად, სასწავლო მონაცემთა ბაზაში არსებული ყველა მიკერძოებული მონაცემიშესწავლილიიქნება   ხელოვნური ინტელექტის მიერ. მიკერძოება იქნება ღრმად გამჯდარი მონაცემთა ბაზაში, რადგან ჩვენც მიკერძოებულნი ვართ, მრავალი თვალსაზრისით, რომელთაგან ზოგიერთს ვამჩნევთ, ზოგიერთს შეიძლება ვერც კი ვიაზრებდეთშედეგად, ხელოვნური ინტელექტის სისტემები აგრძელებენ სწავლას იმ მონაცემთა ბაზიდან, რაზეც ისინი მუშაობენ და თავისთავად ითვისებენ სისტემაში გამჯდარ მიკერძოებულ ინფორმაციას. რაც უფრო დიდია მონაცემთა ბაზა, მით მეტია მიკერძოების შემთხვევა.

აქვს კი ყოველივე ამას მნიშვნელობა? ყველა პროგრამაშიარა. თარგმანის დროს, თქვენ გაინტერესებთ თარგმანის ხარისხი სამიზნე ენაზემაგალითისთვის – Google Translate კარგად თარგმნის ინგლისურიდან ფრანგულ ენაზე: „time flies like an arrow (დრო ისარივით მიფრინავს)“, და გვთავაზობს შემდეგ შედეგს: „le temps file comme une flêche.“  მაგრამ, არც ისე კარგად თარგმნა: „Fruit flies like a banana (ხილის მწერებს უყვართ ბანანი)“ და შემოგვთავაზა: „les mouches des fruits comme une banane.“ გასაკვირი არ არის, რადგან  ამ შემთხვევაში ინგლისურიდან თარგმანი დამაბნეველია: „flies „(მიფრინავს) არის ზმნა პირველ წინადადებაში, მაგრამ მეორე წინადადებაში იგი არსებითი სახელია.

მაგრამ აქ შეიძლება შემოიპაროს გენდერული მიკერძოებაც. თურქულ ენას არ გააჩნია სქესის ნაცვალსახელები. Google და სხვა ავტომატური თარგმანის მექანიზმები „o bir mühendis“ თარგმნიან როგორც  „ის(მამრ.სქესი) არის ინჟინერი,“ „o bir doctor“ როგორცის(მამრ.სქესი) არის ექიმი“, მაგრამ „o bir hemşire’’ როგორცის (მდედრ. სქესი) არის მედდადა „o bir aşçi’’ როგორცის (მდედრ. სქესი) მზარეულია.“ ეს უფრო შეურაცხმყოფელია, ვიდრე კრიტიკული.

ამერიკის რამდენიმე შტატის მოსამართლე იყენებს ხელოვნური ინტელექტის მქონე სისტემას, რომელსაც ეწოდება – Compas, რათა განსაზღვროს გამოიყენოს თუ არა გირაო ბრალდებულის მიმართ, ხოლო ვისკონსინში სისტემა  ეხმარება მოსამართლეს სასჯელის ხანგძლივობის გადაწყვეტაში. სისტემა ეყრდნობა უამრავ ინდიკატორს, რომლებიც არ მოიცავს რასას. თუმცასისტემა მხედველობაში იღებს დამნაშავის ან სავარაუდო დამნაშავის საცხოვრებელ ადგილს და თუ გავითვალისწინებთ მოსახლეობის რასობრივი განაწილების საკითხს ამერიკულ ქალაქებში, გეოგრაფიული ინდიკატორი რასის მახასიათებელი ხდება. ასე რომ, შავკანიანი რასის ბრალდებულს, რომელმაც შესაძლოა აღარ ჩაიდინოს იგივე დანაშაული მისი კრიმინალური ისტორიიდან გამომდინარე, უფრო ნაკლები შესაძლებლობა აქვს შეეფარდოს გირაო, ვიდრე იგივე კრიმინალური ისტორიის მქონე თეთრკანიან პიროვნებას. Compas პროგრამა Northpointe-ის (ეხლანდელი Equivant) ) მიერ არის შემუშავებული და ეს უკანასკნელი არ ამხელს მისი მუშაობის პრინციპს. ალბათ მათ არ შეუძლიათ. ეს ნამდვილად არაეთიკურია.

ვისკონსინი ლუმის წინააღმდეგ (Wisconsin v. Loomis) დავის შემთხვევაში, ბრალდებული ერიკ ლუმისი დამნაშავედ იქნა ცნობილი ავტომობილიდან სროლისთვისსასამართლო პროცესამდე, ლუმისმა უპასუხა უამრავ კითხვას, რომლებიც შემდეგ Compas-ში შეიყვანეს. მოსამართლემ ლუმისს გრძელვადიანი სასჯელი მიანიჭა ნაწილობრივ იმის გამო, რომ  ბრალდებულმა  რისკის შეფასების მექანიზმის მეშვეობით დააგროვამაღალი რისკისქულა. ლუმისმა გაასაჩივრა თავისი სასჯელი, რადგან მას, უფრო სწორად, მის ექსპერტს, არ მიეცა უფლება შეეფასებინა გამოყენებული ალგორითმი. შტატის უზენაესმა სასამართლომ საბოლოო განაჩენი ლუმისის წინააღმდეგ მიიღო, რაც დაასაბუთა იმით, რომ ალგორითმით მიღებული შედეგის ცოდნა გამჭირვალობის საკმარის ხარისხსს წარმოადგენდა. სამართლებრივი საკითხია თუ ეთიკურიც? ორივე, ჩემი აზრით.

ამას მივყავართ კიდევ ერთი მნიშვნელოვანი ეთიკური საკითხის განხილვამდე, რომელსაც აქვს არათუ მხოლოდ ზოგადი, არამედ სამართლებრივი შედეგები, მაგალითად ფინანსებში.

ახსნადობა

ხელოვნური ინტელექტის ყველაზე პოპულარული ფორმები დღეს ნერვული ქსელების საშუალებით სიღრმისეულ სწავლებას ემყარება. ამ სისტემების  მახასიათებელია ის, რომ მათ არ შეუძლიათ ახსნან, თუ როგორ მიიღებენ ამა თუ იმ გადაწყვეტილებებს. არც მათ დიზაინერებს და დეველოპერებს შეუძლიათ ახსნან გადაწყვეტილების მიღების საფუძველი. ეს ცნობილია როგორცშავი ყუთისპრობლემა. სისტემები აგრძელებენ სწავლას თავდაპირველი ტრენინგის შედეგად და პრობლემა კვლავაც გრძელდება. ინგლისური სამართლის პრინციპია, რომ მოსამართლემ უნდა განმარტოს თავისი გადაწყვეტილებები. თუ იგი ეყრდნობა შავი ყუთის სისტემას, რომ მიიღოს გადაწყვეტილება ან მხარი დაუჭიროს მის გადაწყვეტილებას, იგი ვერ ასრულებს ამ ვალდებულებას. პრობლემა ასეთ შემთხვევებში არის ეთიკური და სამართლებრივი.

მსგავსი პრობლემა წარმოიშობა იმ შემთხვევაში, თუ ბანკი ან საფინანსო კომპანია ეყრდნობაშავი ყუთისხელოვნური ინტელექტის სისტემას, რომ დაადგინოს, მოგცეთ თუ არა სესხი. თუ ის უარყოფს თქვენს განაცხადს და ვერ გეტყვით რატომ, მაშინ არ შეგიძლიათ შეცვალოთ თქვენი განაცხადი წარმატების შანსის გასაზრდელად. მაგალითად, ვერ განსაზღვრავთ იმას თუ ანაბრის გაზრდით რამდენად დააკმაყოფილებთ სისტემის მოთხოვნებს. მრავალი ადამიანი და ინსტიტუტი უარს ამბობს გადაწყვეტილების მიღების მიზეზების გამჟღავნებაზე, მაგამ ხელოვნური ინტელექტის სისტემებს ეს არ შეუძლიათ.   ეს არის ხელოვნური ინტელექტის სპეციფიკური ეთიკური პრობლემა. მუშაობა მიმდინარეობს აღნიშნულის მოგვარებასა და გამჭვირვალეობის გაზრდაზე, მაგალითად MIT Lincoln Labs-ში, მაგრამ, რამდენადაც ჩემთვის ცნობილია, შედეგი ჯერჯერობით მიღწეული არ არის.

უვნებლობა

1942 წელს ისააკ ასიმოვმა „I Robot“- ში გამოსცა რობოტიზმის შესახებ კანონები. პირველი იყო: „რობოტმა არ შეიძლება დააზიანოს ადამიანი ან უმოქმედობის გზით დაუშვას ადამიანის ზიანამდე მისვლა“. ხელოვნური ინტელექტის სისტემები არიან ინსტრუმენტები და ნებისმიერი ინსტრუმენტი შეიძლება გამოყენებულ იქნას კეთილი ან ბოროტი მიზნებისთვის. დანა შეიძლება გამოყენებულ იქნას პურის მოსაჭრელად ან ვინმეს დასაჭრელად. ხელოვნური ინტელექტიც შეიძლება გამოყენებულ იქნას კაცობრიობის სასარგებლოდ ან ადამიანებისთვის საზიანოდ. ხელოვნური ინტელექტის მიერ მართული დრონების გამოყენება როგორც ავტომატური ლეტალური იარაღების სისტემა (LAWS) უკვე სადავოა. გაეროში ბევრი ამტკიცებს, რომ აიკრძალოს  მათი გამოყენება ქიმიური და ბიოლოგიური იარაღის მსგავსად. ზოგი ერი კი, მათ შორის დიდი ბრიტანეთი, ამის წინააღმდეგია, იმის საფუძველზე, რომ აღნიშნული საკითხი უკვე დარეგულირებულია არსებული საერთაშორისო სამართალის ნორმებით. უდავოდ, ყველა ძლიერი სახელმწიფო ავითარებს ასეთ სისტემებს და შესაძლოა ბევრი მათგანი უკვე იყენებს კიდეც მსგავს ტექნოლოგიას. შეიძლება თუ არა ამ დრონმა შეწყვიტოს მისია იმ მიზეზით, რომ მისი სამიზნე საავადმყოფოში შევიდა ან ბავშვთა ჯგუფს შეაფარა თავი? ასეთ შემთხვევაში, დრონი, რომელსაც ადამიანი მართავს შესაძლოა შეჩერებული ყოფილიყო. ეჭვი მეპარება, რომ ხელოვნური ინტელექტის სისტემამ შეძლოს ასეთი დახვეწილი გადაწყვეტილების მიღება. ანალოგიურად, შეძლებს თუ არა ხელოვნური ინტელექტის მქონე დრონი  იმის განსაზღვრას, დაეშვას თუ არა იგი დასახლებულ ან ნაკლებად დასახლებულ ადგილზე? კვლავაც მეეჭვება რომ კი. არაეთიკურია? დიახ. მაგრამ ეთიკა ყოველთვის არ არის პრიორიტეტული სფერო სამხედრო აზროვნებაში. ნამდვილად პრობლემური საკითხი საერთაშორისო სამართალში.

ამასთან, სახის ამოცნობის ტექნოლოგია შეიძლება გამოყენებული იყოს რეპრესიული, ავტორიტარული რეჟიმების მიერ დევნის გასაადვილებლად. მსოფლიოში ყველაზე შემაშფოთებელი მაგალითია ჩინეთის მთავრობის მიერ სახის ამოცნობის ტექნოლოგიის ფართოდ რეკლამირებული გამოყენება დასავლეთ ჩინეთში, Xinjiang-ში, მილიონამდე უიღურას იდენტიფიცირებისა და დაპატიმრებისთვის მხოლოდ მათი წარმომავლობისა და რელიგიის საფუძელზე. სრულიად არაეთიკურია. მე ვიყავი იქ 2016 წელს და ძალიან მტკივნეული იყო ამის შესწრება. ამ სამწუხარო მონათხრობის ერთი დადებითი მხარე ისაა, რომ ტრამპის ადმინისტრაცია განიხილავს იმ ხუთი კომპანიის შავ სიაში შეყვანას (მათ შორის, Megvii, Zhejiang Dahua Technology Co. და Hangzhou Hikvision Digital Technology Co.), რომლებიც ამ სისტემებით ამარაგებენ ჩინეთის მთავრობას.

ზოგადად, სახის ამოცნობის ტექნოლოგიის გამოყენებით წამოჭრილი ეთიკური საკითხები ფართო ყურადღებას იპყრობსმოსახერხებელია, რომ ჩემი კომპიუტერი ცნობს ჩემს სახეს, ასე რომ მე არ მჭირდება პაროლის გამოყენება სისტემაში შესასვლელად. უფრო მეტიც, ამ ტექნოლოგიამ პოლიციას საგრძნობლად გაუადვილა ანაპოლისის MD გაზეთის ოფისში მასობრივ სროლაში ეჭვმიტანილი პირის დაკავება გასულ ივნისს. მაგრამ, სან-ფრანცისკომ აკრძალა პოლიციისა და საჯარო ხელისუფლების  მიერ ამ ტექნოლოგიების გამოყენებაედ ბრიჯმა კი სამხრეთ უელსის პოლიციას უჩივლა ამ ტექნოლოგიის გამოყენებისთვის  მისი ნებართვის გარეშე. იგი ამტკიცებდა, რომ ეს იყო მისი პირადი ცხოვრების არაკანონიერი ხელყოფა და მონაცემთა დაცვის კანონისა და თანასწორობის კანონის დარღვევა. თუმცა მან საქმე ვერ მოიგო.

ხელოვნური ინტელექტი შეიძლება ასევე გამოყენებულ იქნას კრიმინალური მიზნებისათვის. მაგალითად, ვინმემ აიღოს თვითმართვადი მანქანა და აქციოს იგი იარაღად, შეტევა მოახდინოს  ინფრასტრუქტურულ ობიექტებზე, როგორიცაა სატელეფონო ქსელები და ელექტროგადამცემები, ან შეაგროვოს მონაცემები, და .. ამ მიმართულებით უამრავი სხვა წუხილიც არსებობს IoT-ში. აშკარად არაეთიკური და ნამდვილად დანაშაულებრივია ეს ყოველივე. რისკები უნდა შეფასდეს ასეთ სიტუაციებში. ეს საკითხები და წუხილები ხაზს უსვამს იმ ფაქტს, რომ კიბერუსაფრთხოებას განსაკუთრებული მნიშვნელობა აქვს ხელოვნურ ინტელექტთან მიმართებაში, რაც კარგად არის განხილული ანგარიშში – „ხელოვნური ინტელექტის მავნე გამოყენება: პროგნოზირება, პრევენცია და შემსუბუქება,“ რომელიც გამოქვეყნდა 2018 წლის თებერვალშიოქსფორდის უნივერსტეტის მეცნიერთა ჯგუფის მიერმათ დაადგინეს, რომ ხელოვნური ინტელექტის სისტემების მზარდი გამოყენება გამოიწვევს საფრთხეთა შემდეგ ნაირსახეობებს:

არსებული საფრთხეების გაზრდა. შეტევების ხარჯები შეიძლება შემცირდეს ხელოვნური ინტელექტის სისტემების მასშტაბური გამოყენებით იმ დავალებების შესრულების მიზნით, რომლებიც ჩვეულებრივ მოითხოვს ადამიანის შრომას, გამოცდილებას და ცოდნას.

ახალი საფრთხეების აღმოცენება. ახალი შეტევები შეიძლება წარმოიშვას ხელოვნური ინტელექტის სისტემის გამოყენებით  ისეთი დავალებების შესასრულებლად, რაც სხვაგვარად არაპრაქტიკული იქნებოდა ადამიანისთვის. გარდა ამისა, მავნე აქტორებმა შეიძლება  არაკეთილსინდისიერად გამოიყენონ დამცველების მიერ განლაგებული ხელოვნური სისტემების ნაკლოვანებები და შედეგად შეიძლება მივიღოთ ხელოვნური ინტელექტის სისტემები, რომლებიც თავს ესხმიან მოწინააღმდეგე ხელოვნური ინტელექტის სისტემებს.

საფრთხეების ტიპიური ხასიათის შეცვლა. მიგვაჩნია, რომ არსებობს საფუძველი იმისა, რომ ხელოვნური ინტელექტის მზარდი გამოყენებებით განხორციელებული შეტევები იყოს განსაკუთრებით ეფექტური, მიზნობრივი, რთულად ამოსაცნობი და სხვა სისტემების ნაკლოვანებებით მოსარგებლე.

ამ საფრთხეების საპასუხოდ ექსპერტებმა შეიმუშავეს ოთხი ზოგადი რეკომენდაცია:

პოლიტიკის შემქმნელებმა მჭიდროდ უნდა ითანამშრომლონ ტექნიკურ მკვლევარებთან, რომ შეისწავლონ, თავიდან აიცილონ და შეამცირონ ხელოვნური ინტელექტის შესაძლო მავნე გამოყენება.

ხელოვნური ინტელექტის სფეროს მკვლევარებმა და ინჟინერებმა სერიოზულად უნდა მიიღონ მხედველობაში თავიანთი მუშაობის შედეგთა ორმაგი გამოყენების ხასიათი, რაც კვლევის პრიორიტეტებსა და ნორმებზე აისახება და პროაქტიულად მიაწვდის შესაბამის აქტორებს ინფორმაციას სისტემის შესაძლო მავნე გამოყენების თაობაზე.

საუკეთესო პრაქტიკის დადგენა უნდა განხორციელდეს  ისეთი კვლევის სფეროებში, სადაც გამოიყენება უფრო სრულყოფილი მეთოდი ორმაგი გამოყენების პრობლემების მოგვარებისთან მიმართებაში, როგორიცაა კომპიუტერის უსაფრთხოება და  მისი იმპორტი იმ შემთხვევაში თუ ის უკავშირდება ხელოვნური ინტელექტის შემთხვევას.

ჩვენ აქტიურად უნდა ვეძიოთ და ხელი შევუწყოთ დაინტერესებული მხარეების და სფეროს ექსპერტების სპექტრის გაფართოებას, რომლებიც მონაწილეობენ ამ გამოწვევების განხილვაში.

პასუხისმგებლობა

ვინ არის პასუხისმგებელი, როდესაც ხელოვნური ინტელექტი შეცდომას უშვებს ან მწყობრიდან გამოდის? იცოდა  მან რომ შეცდომა დაუშვა? ალბათ არაეს საკითხი შეიძლება განვიხილოთ  უფრო სამართლებრივ ჭრილში  ვიდრე ეთიკის ნორმების დარღვევად. თუმცა ჩემი აზრით, ეს ორივეა. ეს ყველაზე ხშირად აღინიშნება ავტომატურ მანქანებთან მიმართებით, რომლებსაც, ექიმების და მძღოლების მსგავსად, შეუძლიათ იმსხვერპლონ ადამიანი. 2018 წელს დიდი ბრიტანეთის პარლამენტმა მიიღო კანონი, რომელიც განმარტავს პასუხისმგებლობის საკითხებს ავტომატური თვითმართვადი გადაადგილების საშუალებების შემთხვევაში, თუმცა აღნიშნული კანონის იმპლიმენტაცია ჯერ არ მომხდარა. კანონმა  ზიანის ან დაღუპვის შემთხვევაში პასუხისმგებლობა დააკისრა მზღვეველს, იმ შემთხვევაში თუ მანქანა დაზღვეული იყო, ხოლო თუ არ იყო დაზღვეული, პასუხისმგებლობა ეკისრება მესაკუთრეს. ეს უზრუნველყოფს, დაზარალებული მხარეების  შედარებით სწრაფ კომპენსაციას, ძირითადი მიზეზების გამოძიების პროცესში, რასაც გაცილებით მეტი დრო სჭირდება. მზღვეველი კანონის შესაბამისად უფლებამოსილია მოგვიანებით შეიტანოს საჩივარი მწარმოებელის ან დეველოპერის წინააღმდეგ და  მოითხოვოს გაუმართავი კომპონენტის ან პროგრამული მოდულის მწყობრიდან გამოსვლისთვის შესაბამისი კომპენსაცია. აქტში ასევე არის მუხლები ისეთ საკითხებთან დაკავშირებით, როგორიც არის მაგალითად, მფლობელის მიერ მწარმოებლისგან მიღებული უსაფრთხოების პროგრამული უზრუნველყოფის პარამეტრების არ განახლება ან მომხმარებლის მიერ პროგრამული უზრუნველყოფის პარამეტრების არაავტორიზებული მოდიფიცირება. აქტში არ არის განხილული სიტუაცია, როდესაც თვითმართვად საშუალებას შეუტევს ჰაკერი  ან მის მართვას ხელში ჩაიგდებს მტრული მხარე (სიტუაციები, რომლებიც ზემოთ განვიხილე). ამასთან, კონცეფციურად კანონი განიხილავს მძღოლის არყოფნის საკითხს, ვინც შესაძლოა პასუხისმგებელი იყოსმიუხედავად ამისა, რამდენადაც ჩემთვის არის ცნობილი, სხვა სფეროებში პასუხისმგებლობის ეთიკური და სამართლებრივი საკითხები ღიად რჩება. თუმცა ევროკომისია აგრძელებს ამ მიმართულებით არსებულ სამართლებრივ გამოწვევებზე მუშაობას.

გავლენა დასაქმებასა და საზოგადოებაზე

შექმნის თუ არა ხელოვნური ინტელექტი ახალ სამუშაო ადგილებს? თუ პირიქით, გაანადგურებს არსებულს? აუცილებლად გამოიწვევს ორივეს. რა ეთიკური საკითხები წამოიჭრება აღნიშნულის შედეგად? ინდუსტრიული რევოლუციების მსგავსად, .. მე-4 ინდუსტრიული რევოლუცია პირველ რიგში გაანადგურებს სამუშაო ადგილებს, ჩაანაცვლებს ადამიანის შრომას უფრო სწრაფი, იაფი, ეფექტური აპარატებით, რომლებიც არ საჭიროებენ შვებულებას და არ მოითხოვენ ხელფასის ზრდას. დროთა განმავლობაში ისინი შექმნიან  ისეთ მოთხოვნებსრაც ახლა ვერც კი წარმოგვიდგენია; საჭირო გახდება ისეთი ფუნქციების შეთავსება, რასაც ადამიანები ვერ დააკმაყოფილებენ. თანმიმდევრულად, მსგავსი ცვლილებები გამოიწვევს უმუშევრობას. ჩვენ ამ  ფენომენის მასშტაბის შეფასება არ შეგვიძლია. ხელოვნური ინტელექტის ყველაზე გულმხურვალე დამცველები გვამშვიდებენ, რომ სანერვიულო არ გვაქვს. ეს არასწორია. მეორე უკიდურეს შემთხვევაში, ზოგიერთი  ექსპერტი გადაჭარბებულად ზრდის საფრთხეების ჩამონათვალს და პროგნოზირებს უმუშევრობის კატასტროფას. ეს ჩვენ არაფერში გვეხმარება. ჩვენ აქტიურად უნდა ვიფიქროთ ამ საკითხებზე. ადამიანების სამსახურებიდან გაშვება ახალი სამუშაოს მოძიების გარეშე, არაეთიკურია და შედეგად  ზიანს აყენებს საზოგადოებას.

რა უნდა გაკეთდეს ამის თავიდან ასაცილებლად? გადამზადება არის მნიშვნელოვანი. არსებობს სამუშაოები, რომელსაც ხელოვნური ინტელექტი ვერ შეასრულებს. ამის მაგალითია, მომხმარებლის ინტერფეისის დიზაინიასევე, გასათვალისწინებელია თუ ვინ უნდა დააფინანსოს გადამზადებამთავრობამ, კორპორაციებმა, კერძო პირებმა? ალბათ, ჩამოთვლილთაგან ყველამ. ამ სფეროში კორპორატიული ძალისხმევის შესანიშნავი მაგალითებია: AT&T- ის Future Ready ინიციატივა, რომელიც არის 1 მილიარდი დოლარის ღირებულების ვებ პლატფორმა, რომელიც მოიცავს ონლაინ კურსებს და თანამშრომლობს სასწავლო კომპანიებთან, როგორიცაა Coursera და Audacity და ასევე წამყვან უნივერსიტეტებთან. ამასთან, ფუნქციონირებს კარიერული ცენტრი, რომელიც თანამშრომლებს საშუალებას აძლევს გადამზადდნენ ისეთი სამსახურებისთვის, როგორიც კომპანიებს ესაჭირეობათ დღესდღეობით და სამომავლოდაც. 2020 წლისთვის AT&T- გადამზადებული ეყოლება 100,000-მდე თანამშრომელი თანამედროვე პროფესიული უნარების მიმართულებით. BT- აქვს მსგავსი პროგრამა დიდ ბრიტანეთში, რომელსაც მხარს უჭერენ IBM, Cisco, Microsoft და სხვები, ისევე როგორც 25 უნივერსიტეტი და ბრიტანეთის კომპიუტერული ცენტრი

არსებობს კიდევ ერთი ეკონომიკური და სოციალური ეთიკური საკითხი, რომელიც ეხება ხელოვნურ ინტელექტს. კერძოდ, რისკი იმისა, რომ  სარგებელი არაპროპორციულად  გადანაწილდება პრივილეგირებული ფენის სასარგებლოდ და არ გაითვალისწინებს  დაბალ სოციალურ ფენას. ამ რისკის სწრაფი მოგვარების რეცეპტი არ არსებობს, მაგრამ  აუცილებელია პოლიტიკის შემქმნელებმა გაითვალისწინონ ეს ასპექტიც.

 

არის თუ არა  ხელოვნური ინტელექტის მიერ ადამინის განსახიერება არაეთიკური?

როგორც ჩვენთვის ცნობილია, ალან ტურინგმა შეიმუშავაიმიტაციის თამაში“, რომელიც დღეს ცნობილიატურინგის ტესტისსახელწოდებითშეუძლია თუ არა მანქანას დაარწმუნოს ადამიანი, რომ ისიც ადამიანია. ბოლო დრომდე, არცერთ მანქანას არ გაუვლია ტურინგის ტესტი წარმატებით. თუმცა, Google-ის დეველოპერების 2018 წლის კონფერენციაზე, სანდარ პიჩაიმ, Google-ის  აღმასრულებელმა დირექტორმა, ხელოვნური ინტელექტის -დუპლექსის (Duplex) დემონსტრირება მოახდინა, რომელიც დამაჯერებლად დაუკავშირდა სილამაზის სალონს და ჩაეწერა თმის ვარცხნილობაზე და ამავდროულად დაჯავშნა მაგიდა რესტორანში. ზარის ვერც ერთმა მიმღებმა ვერ გაიაზრა, რომ მანქანასთან საუბრობდა. ნამდვილად დამაჯერებელი იყო. ასე რომ, შეიძლება ითქვას, ხელოვნურმა ინტელექტმა წარმატებით ჩააბარა ტურინგის ტესტი, მას შემდეგ, რაც ალან ტურინგმა 70 წლის წინ შექმნა იგი. აღნიშნული ტექნოლოგია ახლა ხელმისაწვდომია Google-ის მეშვეობით. მიუხედავად იმისა, რომ კონფერენციაზე დამსწრე საზოგადოება დემონსტრირებას აპლოდისმენტებით შეხვდა, სოციალურმა მედიამ მსგავს მოვლენას არაეთიკური უწოდა. ევროკავშირის მაღალი დონის საექსპერტო ჯგუფმა განაცხადა, რომ ეს ეწინააღმდეგება მათ ერთერთ ძირითად პრინციპს.

რამდენად მნიშვნელოვანია ეთიკა ხელოვნურ ინტელექტში ?

საკმაოდ. თუ საზოგადოება თვლის, რომ ხელოვნური ინტელექტის გამოყენება არაეთიკურია, ის დაკარგავს საზოგადოების ნდობას. ამის მრავალი მაგალითია, მეცნიერული დასაბუთებით ან დასაბუთების გარეშე. გენეტიკურად შეცვლილი (GM) საკვებისადმი უნდობლობა და Boeing 737 Max– ის შემთხვევა აშკარა მაგალითებია. ევროკავშირის ხელოვნური ინტელექტის მაღალი დონის ექსპერტთა ჯგუფის თქმით:

სანდოობა მთავარი წინაპირობაა საზოგადოებისთვის, რომ მან განავითაროს და გამოიყენოს ხელოვნური ინტელექტის მქონე სისტემები. ხელოვნური ინტელექტის სისტემებისა და მათ უკან მყოფი ადამიანების მიმართ ნდობის გარეშე, ხელოვნური ინტელექტის შემდგომი განვითარება შეიძლება შეფერხდეს, რაც ხელს შეუშლის პოტენციურად მზარდი სოციალური და ეკონომიკური სარგებლის რეალიზაციას.“

ექსპერტთა ჯგუფმა დამატებით აღნიშნა: „იმისთვის, რომ დავეხმაროთ ევროპას ხელოვნური ინტელექტით მიღებული სარგებლის რეალიზაციაში, აუცილებელია უზრუნველვყოთ სანდო ხელოვნური ინტელექტის არსებობა“.

ჯგუფმა გამოავლინა ოთხი ეთიკური პრინციპი, რომელიც ხელოვნურმა ინტელექტმა უნდა დაიცვას:

ადამიანის ავტონომიის პატივისცემა;

ზიანის პრევენცია;

სამართლიანობა;

ახსნადობა.

მათ აღნიშნეს, მიუხედავად იმისა, რომ მრავალი სამართლებრივი ვალდებულება მოიცავს ეთიკურ პრინციპებს, ეთიკური პრინციპების დაცვა სცილდება არსებული კანონების მხოლოდ ფორმალურ დაცვას. ეს დამაჯერებელი არგუმენტია.

ეთიკას ხშირად განიხილავენ, როგორც  რაარ შეიძლება გაკეთდეს“. რა თქმა უნდა, არსებობს არაეთიკური საფრთხეები, რომელიც ასევე გასათვალისწინებელია, მაგრამ საჭიროა ეთიკა განვიხილოთ პოზიტიურ ჭრილში. ჩვენ უნდა შევიძინოთ პროდუქცია იმ კომპანიებისგან, რომლებსაც ეთიკურად მივიჩნევთ. ხალხს სურს იმუშაონ ეთიკურ დამსაქმებლებთან. აკადემიკოსებს სურთ კვლევის ჩატარება ეთიკური გზით. იურისტებისთვის ეთიკურად მოქმედება მათი პროფესიის საფუძველია. ეთიკურობა უნდა იყოს ორგანიზაციის პოზიციისა და სტრატეგიის მნიშვნელოვანი  შემადგენელი ელემენტი. ამრიგად, ეთიკურობა აუცილებელი წინაპირობაა, რაც უნდა მოიაზრებოდეს  ხელოვნური ინტელექტის განვითარების ყოველ საფეხურზე -დაწყებული  კონცეფციიდან და დიზაინიდან მის საბოლოო კონსტრუქციამდე.

დასკვნა

მე განვიხილე ექვსი ეთიკური საკითხი ხელოვნურ ინტელექტთან მიმართებაში: მიკერძოება, ახსნადობა, უვნებლობა, პასუხისმგებლობა ზიანზე, გავლენა დასაქმებაზე, და ხელოვნური ინტელექტის მიერ ადამიანების განსახიერება. ჩემი მთავარი არგუმენტია, რომ ეთიკას ნამდვილად აქვს მნიშვნელობა ხელოვნური ინტელექტის განვითარებაში, რადგან თუკი ის სანდოა მისი სარგებელი დადებითად აისახება საზოგადოებაზე.

როგორ მოქმედებს ეს კანონზე? ბუნებრივია ნებისმიერი კანონი, მათ შორის რეგულირება, უნდა ემყარებოდეს ეთიკურ პრინციპებს. კარგი რეგულაციის შემუშავება რთულია ასეთ სწრაფად მზარდ სფეროში; გადაჭარბებული რეგულირება კი იწვევს ინოვაციის შეფერხების რისკს. თუმცა, ევროკავშირმა აჩვენა, რომ ამ მიმართულებით პროგრესი შესაძლებელია და საჭიროა მან კვლავ განაგრძოს სტანდარტის დადგენა ამ კუთხით.

ამ კონტექსტში იმედის მომცემია ის ფაქტი, რომ OECD- 42-მა ქვეყანამ ახლახანს ხელი მოაწერა შეთანხმებას, რომელიც მიზნად ისახავს ხელოვნური ინტელექტის გლობალური მმართველობის ჩარჩოს ხელშეწყობას (“ხელოვნური ინტელექტის საბჭოს რეკომენდაციებიპრინციპები სანდო ხელოვნური ინტელექტის პასუხისმგებლობით მართვის შესახებ“). მართალია შეთანხმებას  არ აქვს კანონის ძალა, თუმცა კარგი დასაწყისია, თუ ხელმომწერი მხარეები იმოქმედებენ მის შესაბამისად.

ასე რომ, საქართველოს ადვოკატთა ასოციაციის ადვოკატებისთვის ჩემი მესიჯი ნათელია: ჩვენ უნდა გავითვალისწინოთ ეთიკა ჩვენი საქმიანობის თითოეულ ეტაპზე, იქნება ეს კლიენტებისთვის მიცემული რჩევა თუ ხელოვნური ინტელექტის განვითარება-გამოყენების საკითხები თქვენს პრაქტიკაში ან მართლმსაჯულების განხორციელებაში. ეთიკის ნორმებს უნდა იცავდეს ყველა თანამშრომელი, მათ შორის უფროსი პარტნიორი თუ აღმასრულებელი დირექტორი. ყველაფერი კი რაც უკავშირდება ხელოვნურ ინტელექტს, უპირველეს ყოვლისა დაფუძნებული უნდა იყოს ეთიკურ პრინციპებზე.

თარგმანი: თაკო ბოჭორიშვილი

აღმასრულებელი საბჭო

სასწავლო ცენტრი

ეთიკის კომისია

კომიტეტები

სარევიზიო კომისია

ადვოკატები

ფონდი

ადვოკატის პროფილი