ხელოვნური ინტელექტი და ადამიანის უფლებები: შედეგები და კორპორაციული პასუხისმგებლობის გააზრება
ავტორი:
აკაკი კუხალეიშვილი
ბიზნესისა და ადამიანის უფლებების მენეჯერი
გაეროს გლობალური შეთანხმების საქართველოს ქსელი

ბოლო წლებში, ხელოვნური ინტელექტი ჩვენი დროის ერთ-ერთ ყველაზე ტრანსფორმაციულ ტექნოლოგიად იქცა, რომელმაც ფუნდამენტურად შეცვალა ჩვენი ცხოვრება, სამუშაო პროცესი და ურთიერთობა. ხელოვნური ინტელექტი ხელს უწყობს ჭკვიანი სისტემების შექმნას, რომელსაც ადამიანების მსგავსად შეუძლია, იფიქროს, ისწავლოს და მიიღოს გადაწყვეტილებები. ხელოვნური ინტელექტის სისტემები შეიძლება იყოს ისეთ პროგრამულ უზრუნველყოფაზე დაფუძნებული, როგორიცაა ხმოვანი ასისტენტები, საძიებო სისტემები, მეტყველებისა და სახის ამოცნობა, ან გამოიყენებოდეს ინტეგრირებულ ტექნიკაში, როგორიცაა რობოტები, თვითმართვადი მანქანები და ჭკვიანი მოწყობილობები1.
ხელოვნური ინტელექტის სწრაფმა განვითარებამ და შესაბამის ინსტრუმენტებზე საზოგადოების მზარდმა ხელმისაწვდომობამ, მნიშვნელოვანი ინტერესი გამოიწვია. ხელოვნური ინტელექტი სწრაფად ვითარდება და გვთავაზობს შთამბეჭდავ პოტენციალს ცხოვრების მრავალი სფეროს გასაუმჯობესებლად, მათ შორის, სამეცნიერო კვლევების, ჯანდაცვისა და ბიზნესის სფეროში. ინდუსტრიების ტრანსფორმაციასთან ერთად, ხელოვნური ინტელექტის უპირატესობები სულ უფრო თვალსაჩინო ხდება, რაც საშუალებას აძლევს ბიზნესებს, იმუშაონ უფრო ეფექტიანად, მიიღონ უფრო გონივრული გადაწყვეტილებები და წაახალისონ ინოვაცია. ხელოვნურმა ინტელექტმა უკვე გაუწია დახმარება ბიზნესებს გადაწყვეტილებების მიღების გაუმჯობესებაში, მომხმარებელთა მომსახურების გაძლიერებასა და ეკონომიკური ზრდის ხელშეწყობაში. ხელოვნური ინტელექტი ბიზნესებს უპირატესობების ფართო სპექტრს სთავაზობს, პროცესების გამარტივებიდან და ეფექტიანობის გაზრდიდან დაწყებული, ხარჯების შემცირებითა და ინოვაციების წახალისებით დამთავრებული. დღევანდელ დინამიურ ბაზარზე, კომპანიებს შეუძლიათ, შესრულების ოპტიმიზაციაში, რისკების მართვასა და საერთო ბიზნეს ეფექტიანობაში2 ხელოვნური ინტელექტის ინტეგრირებით, კონკურენტული უპირატესობა მოიპოვონ.
თუმცა, იმის გამო, რომ ხელოვნური ინტელექტი უფრო მეტად ერთვება ადამიანების ყოველდღიურ ცხოვრებაზე გავლენის მქონე გადაწყვეტილებების მიღებაში, საყურადღებოა პირადი ცხოვრების ხელშეუხებლობის, მიკერძოების, დისკრიმინაციისა და მნიშვნელოვან გადაწყვეტილებებზე ადამიანური კონტროლის დაკარგვის კუთხით არსებული რისკები3. ამ მოვლენებმა გააჩინა კითხვები იმის შესახებ, თუ რამდენად ეფექტიანად აფასებენ და ამცირებენ კომპანიები გენერაციული ხელოვნური ინტელექტის პროდუქტებთან და სერვისებთან დაკავშირებულ რისკებს ადამიანებისა და საზოგადოებისთვის4.
სტატიაში განხილულია ხელოვნურ ინტელექტსა და ადამიანის უფლებებს შორის არსებული ურთიერთობები, ფოკუსით, თუ როგორ შეუძლია ბიზნესს, მოახდინოს როგორც დადებითი, ისე უარყოფითი გავლენა ადამიანის უფლებებზე.
ასევე, განხილულია მთავარი მარეგულირებელი ჩარჩოები, როგორიცაა გაეროს გლობალური შეთანხმება, გაეროს სახელმძღვანელო პრინციპები ბიზნესისა და ადამიანის უფლებების შესახებ (UNGPs), ევროკავშირის ხელოვნური ინტელექტის აქტი და ევროპის საბჭოს ჩარჩო კონვენცია ხელოვნური ინტელექტისა და ადამიანის უფლებების საკითხებში. ასევე ხაზგასმულია, თუ როგორ შეუძლიათ ბიზნესებს უზრუნველყონ, რომ ხელოვნური ინტელექტის პრაქტიკა შესაბამისობაში იყოს ადამიანის უფლებათა საერთაშორისო სტანდარტებთან.
ურთიერთკავშირი ხელოვნურ ინტელექტსა და ადამიანის უფლებებს შორის
ხელოვნური ინტელექტისა და ადამიანის უფლებების ურთიერთკავშირის შესახებ დისკუსიისას ხშირად ისმის კითხვა, თუ რა ზემოქმედებას ახდენს ხელოვნური ინტელექტი ადამიანის ფუნდამენტურ უფლებებზე5. ადამიანის უფლებები იცავს პიროვნების ღირსებას, მის თავისუფლებასა და თანასწორობას. იქიდან გამომდინარე, რომ ხელოვნური ინტელექტი მეტად ინერგება საზოგადოებაში, მნიშვნელოვანია ამ უფლებების დაცვა ხელოვნური ინტელექტის სისტემებში. ხელოვნური ინტელექტი თანდათან მეტ გავლენას ახდენს სხვადასხვა სექტორზე, მათ შორის, სამართალდამცავი სისტემის, ჯანდაცვისა და დასაქმების მიმართულებით, რაც აუცილებელს ხდის ამ ტექნოლოგიების განვითარებასა და რეგულირებას ფუნდამენტური უფლებების დაცვის გათვალისწინებით. ხელოვნური ინტელექტის თითქმის ყველა აპლიკაცია, პირდაპირ, თუ ირიბად დაკავშირებულია ადამიანის უფლებებთან. მაგალითად, საზოგადოებრივ ტრანსპორტში ხელოვნურ ინტელექტს შეუძლია, გავლენა მოახდინოს ისეთ უფლებებზე, როგორიცაა გადაადგილების თავისუფლება, პირადი ცხოვრების ხელშეუხებლობა და დისკრიმინაციის აკრძალვა6. აღნიშნული საკითხების გადაჭრა, საზოგადოებაში ხელოვნური ინტელექტის როლის ზრდასთან ერთად, კიდევ უფრო მნიშვნელოვანი ხდება ეთიკური და სამართლიანი ტექნოლოგიური განვითარების უზრუნველსაყოფად.
ხელოვნურ ინტელექტს შეუძლია, გააუმჯობესოს გადაწყვეტილების მიღების პროცესი დისკრიმინაციის გამოვლენით ან საზიანო შინაარსის, მაგალითად, სიძულვილის ენის მონიტორინგის საშუალებით. მაგალითად, სოციალური მედიის პლატფორმები იყენებენ ხელოვნურ ინტელექტს საზიანო კონტენტის წასაშლელად, ხოლო რეკრუტინგის ინსტრუმენტები ეხმარებიან მიკერძოების შემცირებას სამსახურში აყვანის პროცესში7. თუმცა, ხელოვნური ინტელექტი ასევე წარმოშობს ისეთ რისკებს, როგორიცაა პირადი ცხოვრების ხელშეუხებლობის საკითხები, გამოხატვის თავისუფლების შეზღუდვა და მიკერძოება. დასაქმების ზოგიერთი ალგორითმი სხვების საზიანოდ, უპირატესობას ანიჭებს გარკვეულ ჯგუფებს, ხოლო სახის ამოცნობის ტექნოლოგიამ, მიუხედავად მისი სარგებლიანობისა სამართალდამცავი ორგანოებისთვის, გამოიწვია საზოგადოების შეშფოთება მასობრივ თვალთვალთან და უსაფუძვლო დაკავებებთან დაკავშირებით. გარდა ამისა, ავტომატიზაცია ცვლის შრომის ბაზარს, ანაცვლებს ისეთ პოზიციებს, როგორიცაა მომხმარებელთა მომსახურების აგენტები და მოლარეები, რაც ქმნის დასაქმებულთა მიერ ახალი უნარების შესწავლის საჭიროებას8. ხელოვნური ინტელექტის განვითარებასთან ერთად, მისი სარგებლის დაბალანსება ადამიანის უფლებების დაცვასთან მიმართებით, გადამწყვეტია სამართლიანობისა და ანგარიშვალდებულების უზრუნველსაყოფად.
პასუხისმგებლიანი ხელოვნური ინტელექტის პროგრამების ზრდამ და განვითარებამ ადამიანებისა და საზოგადოებისთვის მნიშვნელოვანი საფუძველი შექმნა ხელოვნურ ინტელექტთან დაკავშირებული რისკების გადასაჭრელად. მაშინ, როდესაც ზოგიერთი კომპანია ითვალისწინებს ადამიანის უფლებების პერსპექტივას, იზრდება მოთხოვნა რისკების მართვის პროცესების უფრო თანმიმდევრულ ინტეგრაციაზე, როგორიცაა მათ პასუხისმგებლიან ხელოვნური ინტელექტის პოლიტიკაში ადამიანის უფლებების სათანადო შეფასების პროცესის დანერგვა. ხელოვნური ინტელექტის განვითარებასთან ერთად, კომპანიებმა უნდა გამოავლინონ და გადაჭრან ადამიანის უფლებებთან დაკავშირებული პოტენციური რისკები, უზრუნველყონ მათი პოლიტიკის შესაბამისობა ისეთ ჩარჩოებთან, როგორიცაა გაეროს სახელმძღვანელო პრინციპები ბიზნესისა და ადამიანის უფლებების შესახებ. ეს დაეხმარება კომპანიებს უფრო ეფექტიანად მართონ არსებული რისკები და ხელი შეუწყონ ეთიკური ხელოვნური ინტელექტის განვითარებას.
არსებული მარეგულირებელი ჩარჩოები
საერთაშორისო მარეგულირებელი ჩარჩოები სულ უფრო მეტად მოითხოვენ ბიზნესებისგან ადამიანის უფლებების დაცვას, განსაკუთრებით მაშინ, როდესაც ისინი ნერგავენ და ახორციელებენ ხელოვნური ინტელექტის სისტემებს. აღნიშნული ჩარჩოები მოითხოვენ კომპანიებისგან შეაფასონ ადამიანის უფლებებთან დაკავშირებული რისკები და უზრუნველყონ მათი საქმიანობის შესაბამისობა ადამიანის ფუნდამენტურ უფლებების დაცვასთან მიმართებით.
გაეროს სახელმძღვანელო პრინციპები ბიზნესისა და ადამიანის უფლებების შესახებ ხაზს უსვამს ბიზნესის მხრიდან ადამიანის უფლებების პატივისცემის ვალდებულებას. ეს პრინციპები გახდა ფუნდამენტური სტანდარტი კორპორაციული პასუხისმგებლობის რეგულირებისთვის ადამიანის უფლებების სფეროში, რომელიც გავლენას ახდენს როგორც საერთაშორისო, ისე ეროვნულ რეგულაციებზე.
ევროკავშირის ხელოვნური ინტელექტის აქტი9 წარმოადგენს მთავარ მარეგულირებელ ჩარჩოს, რომელიც ბიზნესებისგან მოითხოვს იმ რისკების გათვალისწინებას, რომლებსაც ხელოვნური ინტელექტის სისტემები უქმნიან ადამიანის უფლებებს, განსაკუთრებით კი, ხელოვნური ინტელექტის ტექნოლოგიების დანერგვისას. აქტი ხაზს უსვამს ხელოვნური ინტელექტის განვითარებისას ფუნდამენტური უფლებების დაცვის მნიშვნელობას, რაც უზრუნველყოფს, რომ ბიზნესებმა არ დაუშვან ხელოვნური ინტელექტის პოტენციური უარყოფითი გავლენა ინდივიდების პირად ცხოვრებაზე, მათი ღირსებასა და ავტონომიაზე. ევროპის საბჭოს ჩარჩო კონვენცია ხელოვნური ინტელექტის, ადამიანის უფლებების, დემოკრატიისა და კანონის უზენაესობის შესახებ ამ სფეროში პირველ საერთაშორისო სამართლებრივად სავალდებულო ხელშეკრულებას წარმოადგენს. იგი უზრუნველყოფს, რომ ყველა აქტივობა ხელოვნური ინტელექტის სისტემის სასიცოცხლო ციკლის განმავლობაში შეესაბამებოდეს ადამიანის უფლებებსა და დემოკრატიულ პრინციპებს. ტრადიციული მარეგულირებელი მიდგომებისგან განსხვავებით, აღნიშნული კონვენცია ტექნოლოგიურად ნეიტრალურია და ფოკუსირებულია ეთიკურ პრინციპებზე და არა კონკრეტულ ტექნოლოგიურ გადაწყვეტილებებზე. იგი ხაზს უსვამს ისეთ მნიშვნელოვან ფუნდამენტურ პრინციპებს, როგორიცაა ადამიანის ღირსება, პირადი ცხოვრების ხელშეუხებლობის დაცვა, თანასწორობა, გამჭვირვალობა, ანგარიშვალდებულება და უსაფრთხო ინოვაცია. აღნიშნული კონვენცია ასევე მოითხოვს კომპანიებისგან, რომ მათ ჩაატარონ რისკებისა და ზემოქმედების შეფასება ხელოვნური ინტელექტის სისტემებზე, რათა უზრუნველყოფილი იყოს ადამიანის უფლებების, დემოკრატიისა და კანონის უზენაესობისთვის პოტენციური რისკების იდენტიფიცირება და არსებობის შემთხვევაში, ამგვარი რისკების შემცირება. ხელისუფლების ორგანოებს უფლება აქვთ, ჩაერიონ ისეთ სიტუაციებში, სადაც ხელოვნური ინტელექტის გამოყენებამ შეიძლება გამოიწვიოს მნიშვნელოვანი ზიანი, მათ შორის გარკვეული ხელოვნური ინტელექტის სისტემების აკრძალვის, ან მათზე მორატორიუმის შემოღების გზით.10
ვინაიდან, ხელოვნური ინტელექტის სისტემები უფრო მეტად ინტეგრირდება გადაწყვეტილების მიღების პროცესში, მნიშვნელოვანია, რომ ბიზნესებმა გაითვალისწინონ მათი სამართლებრივი ვალდებულებები ადამიანის უფლებათა საერთაშორისო სამართლის ნორმების ფარგლებში და განახორციელონ ადამიანის უფლებათა სათანადო შეფასება ზიანის თავიდან ასაცილებლად, კომპანიებმა უნდა შეაფასონ და აღმოფხვრან ხელოვნურ ინტელექტთან დაკავშირებული რისკები. ეს ხაზს უსვამს პროაქტიული რისკების შეფასების მნიშვნელობას ხელოვნური ინტელექტის განვითარებაში. აუცილებელია ყოვლისმომცველი მმართველობა, რომელიც პრიორიტეტად მიიჩნევს ადამიანის უფლებებს და აუცილებელია თანამშრომლობა მთავრობებს, ბიზნესს, საერთაშორისო ორგანიზაციებსა და სამოქალაქო საზოგადოებას შორის იმის უზრუნველსაყოფად, რომ ხელოვნური ინტელექტის სისტემები პატივს სცემდნენ და იცავდნენ ადამიანის უფლებებს.
კორპორაციების პასუხისმგებლობები ადამიანის უფლებათა სათანადო შეფასების პროცესის განხორციელებისას
ხელოვნური ინტელექტის გამოყენებისას, კომპანიებმა, რომლებიც ავითარებენ და ნერგავენ ხელოვნური ინტელექტის სისტემებს, უნდა განახორციელონ ადამიანის უფლებათა სათანადო შეფასება გაეროს ბიზნესისა და ადამიანის უფლებების სახელმძღვანელო პრინციპების შესაბამისად. ხელოვნურ ინტელექტთან დაკავშირებული ადამიანის უფლებების გამოწვევების გადაჭრისთვის, გაეროს გენერალურმა ასამბლეამ ხაზი გაუსვა ამ პრინციპების განსაკუთრებულ მნიშვნელობას11. ხელოვნური ინტელექტისთვის ადამიანის უფლებების ეფექტიანი და სათანადო შემოწმება მოითხოვს კომპანიებისგან რამდენიმე მნიშვნელოვანი ნაბიჯის გადადგმას. პირველ რიგში, კომპანიებმა უნდა გამოავლინონ და შეაფასონ მათი ხელოვნური ინტელექტის სისტემების პოტენციური გავლენა ადამიანის უფლებებზე. შემდეგ, კომპანიებმა უნდა მოახდინონ აღნიშნული მიგნებების ინტეგრირება საკუთარ ოპერაციებში. ყოველივე ეს შეიძლება მოიცავდეს ადამიანის უფლებების სტანდარტების ჩართვას პარტნიორების შერჩევის პროცესებში, განსაკუთრებით მაშინ, როდესაც სუბიექტებთან თანამშრომლობა ხორციელდება ისეთ ქვეყნებში, სადაც ადამიანის უფლებების დაცვის მაჩვენებელი დაბალია. მაგალითად, სახის ამოცნობის ტექნოლოგიების გამოყენებისას, კომპანიებს სჭირდებათ მკაცრი კონტროლის განხორციელება იმისთვის, რომ ასეთი ტექნოლოგიები არ გახდეს ავტორიტარული რეჟიმების მხრიდან მოსახლეობაზე ტოტალური კონტროლისა და უფლებების მასობრივი დარღვევის ხელშემწყობი ინსტრუმენტი.12
მომდევნო კრიტიკული ნაბიჯია მოქმედება. კომპანიებმა უნდა მიიღონ ისეთი პრევენციული ზომები, როგორიცაა დეველოპერების გადამზადება ხელოვნური ინტელექტის გავლენაზე ადამიანის უფლებების კუთხით, სისტემის დიზაინის დროს მრავალფეროვანი პერსპექტივების მქონე ინტერდისციპლინური გუნდების ჩამოყალიბება და ხელმისაწვდომობის უზრუნველსაყოფად, შეზღუდული შესაძლებლობის მქონე პირთა უფლებების დამცველი ორგანიზაციების ჩართვა ადამიანი-მანქანის ინტერფეისების შექმნისას. ამგვარი მიდგომის მაგალითს წარმოადგენს Microsoft-ის ხელოვნური ინტელექტის ეთიკის მიმოხილვის საბჭო, რომელიც აფასებს პროდუქციას მანამ, სანამ იგი მომხმარებლამდე მიაღწევს. 13
ხელოვნური ინტელექტის სისტემებისა და მათი ზემოქმედების მუდმივი მონიტორინგი აუცილებელია ეფექტურობისთვის. ეს ნიშნავს რეგულარულ შემოწმებას, თუ რამდენად ახდენს მიღებული ზომები ადამიანის უფლებების დარღვევების პრევენციას ყველა აპლიკაციაში და ასევე, მიდგომების განახლებას, როდესაც ჩნდება ახალი რისკები, ან მათი დანერგვით რეგიონებში იცვლება ბიზნეს გარემო. ამგვარი მიმდინარე პასუხისმგებლობის დემონსტრირებას ახდენს Amazon-ის Rekognition სახის ამოცნობის პროგრამული უზრუნველყოფის რეგულარული აუდიტი.
და ბოლოს, კომპანიებმა უნდა გაავრცელონ ინფორმაცია თავიანთი პროცესებისა და მიგნებების შესახებ. მაშინ, როდესაც რისკების შეფასების საჯაროდ გამოქვეყნება სამართლებრივად სავალდებულო ყოველთვის არ არის, გამჭვირვალობა მაღალი რისკის მქონე სფეროებში ხელოვნური ინტელექტის განვითარების შესახებ აყალიბებს ნდობას და შეესაბამება ეროვნული და საერთაშორისო ჩარჩოების მზარდ კონვერგენციას, რომელიც ადამიანის უფლებებზე ზემოქმედების შეფასებას მოითხოვს14. Google-ის AI პრინციპები და გამჭვირვალობის ანგარიშები წარმოადგენს ინდუსტრიის საუკეთესო პრაქტიკას ამ სფეროში.
აღნიშნული რეკომენდაციების გათვალისწინებით, კომპანიებს შეუძლიათ, შექმნან გარანტიები, რომ მათი ხელოვნური ინტელექტის სისტემები პატივს სცემს ადამიანის უფლებებს და ამავდროულად, უზრუნველყოფს ბაზრებზე ინოვაციასა და ღირებულებას.
განსაკუთრებით მნიშვნელოვანია ხელოვნური ინტელექტის ეკონომიკური გავლენა , რადგან მას აქვს პოტენციალი, გაზარდოს პროდუქტიულობა, წაახალისოს ინოვაცია და შეამციროს საოპერაციო ხარჯები. ხელოვნური ინტელექტის ინტეგრირებით სამუშაოს შესრულების ოპტიმიზაციაში, რისკების მართვასა და საერთო ბიზნეს ეფექტიანობაში, კომპანიებს შეუძლიათ მოიპოვონ კონკურენტული უპირატესობა დღევანდელ დინამიურ ბაზარზე. მაშინ, როდესაც ხელოვნური ინტელექტი განაგრძობს განვითარებას და ინდუსტრიების გარდაქმნას, ადამიანის უფლებებზე მისი გავლენის უგულებელყოფა მიზანშეწონილი არ არის. კომპანიებმა უნდა გადადგან პროაქტიული ნაბიჯები იმის უზრუნველსაყოფად, რომ ხელოვნური ინტელექტის სისტემები პატივს სცემს და იცავს ადამიანის ფუნდამენტურ უფლებებს. ძირითადი რეკომენდაციები მოიცავს ადამიანის უფლებათა სათანადო შეფასების პროცესების დანერგვას, რისკების საფუძვლიან შეფასებას და ადამიანის უფლებების საკითხების ინტეგრირებას ხელოვნური ინტელექტის განვითარების სასიცოცხლო ციკლში. ბიზნესებმა ასევე უნდა უზრუნველყონ გამჭვირვალობა, რეგულარულად აკონტროლონ ხელოვნური ინტელექტის სისტემების ზემოქმედება და ისეთ საერთაშორისო ჩარჩოებთან მათი შესაბამისობა, როგორიცაა გაეროს სახელმძღვანელო პრინციპები ბიზნესისა და ადამიანის უფლებების შესახებ და ევროკავშირის აქტი ხელოვნური ინტელექტის შესახებ. ბიზნესებს შეუძლიათ, ხელი შეუწყონ ინოვაციას პოტენციური ზიანის შემცირების გზით, ადამიანის უფლებების პრიორიტეტიზაციითა და უზრუნველყოფით, რომ ხელოვნურ ინტელექტს სარგებელი მოაქვს საზოგადოებისთვის.