გაეროს გლობალური შეთანხმების გერმანიის ქსელი ხელოვნური ინტელექტისა და ადამიანის უფლებების შესახებ
ვინაიდან ხელოვნური ინტელექტი ინდუსტრიებისა და საზოგადოებების გარდაქმნას განაგრძობს, მისი გავლენა ადამიანის უფლებებზე, ეთიკასა და კორპორაციულ პასუხისმგებლობაზე მნიშვნელოვან სადისკუსიო საკითხად იქცა. ხელოვნურ ინტელექტს უზარმაზარი პოტენციალი აქვს ინოვაციების, ეფექტურობისა და ეკონომიკური ზრდის წასახალისებლად, თუმცა ის, ასევე, მნიშვნელოვან რისკებსაც მოიცავს, მათ შორის მონაცემთა კონფიდენციალურობასთან დაკავშირებულ გამოწვევებს, ალგორითმულ მიკერძოებას და ხელოვნური ინტელექტის ბოროტად გამოყენებას ადამიანის უფლებების დარღვევის მიმართულებით.

აღნიშნული გამოწვევების გადაჭრაში ლიდერობს გაეროს გლობალური შეთანხმების გერმანიის ქსელი, რომელიც ბიზნესებს ხელოვნური ინტელექტის პასუხისმგებლიანი და ეთიკური დანერგვის საკითხებში დახმარებას უწევს. ინტერვიუში რიჩარდ ჰულსმანი, გაეროს გლობალური შეთანხმების გერმანიის ქსელის სოციალური და მმართველობის პროგრამების ხელმძღვანელი და სარა ჰეხლერი, მრჩეველი ადამიანის უფლებებისა და შრომითი სტანდარტების საკითხებში, საუბრობენ 2023 წლის ანგარიშზე – “ხელოვნური ინტელექტი და ადამიანის უფლებები: რეკომენდაციები კომპანიებისთვის”. დოკუმენტში განხილულია ხელოვნური ინტელექტის გამოყენებასთან დაკავშირებული რისკები ადამიანის უფლებების დაცვის კუთხით, კორპორაციული სათანადო შეფასების სტრატეგიები და ხელოვნური ინტელექტისა და ბიზნეს ეთიკის სამომავლო კვეთის საკითხები.

გაგვიზიარეთ ინფორმაცია ხელოვნურ ინტელექტთან დაკავშირებით გაეროს გლობალური შეთანხმების გერმანიის ქსელის საქმიანობის შესახებ და როგორ შეუძლია ხელოვნურ ინტელექტს მდგრადი განვითარების მიზნების შესრულების მხარდაჭერა?
გაეროს გლობალური შეთანხმების Forward Faster-ის ინიციატივის შესაბამისად, ამ დროისთვის, დასახული ინდიკატორების შესაბამისად, მდგრადი განვითარების მიზნების მხოლოდ 17% სრულდება. ამ მიზნების მიღწევა მოითხოვს გლობალური ეკონომიკის ყველა სექტორში ფუნდამენტურ ცვლილებებსა და ტრანსფორმაციას. ხელოვნური ინტელექტი და მისი პოტენციურად ღრმა გავლენა ბიზნესსა და საზოგადოებაზე შესაძლოა, გადამწყვეტი იყოს ამგვარი ცვლილების განხორციელებაში. ამავდროულად, ხელოვნურ ინტელექტს თან სდევს გარკვეული რისკები და მისმა არასათანადო გამოყენებამ შეიძლება ხელი შეუწყოს მდგრადი განვითარების მიზნების, მაგალითად, გენდერული თანასწორობის, შემდგომ უკუსვლას. გაეროს გლობალური შეთანხმების გერმანიის ქსელმა 2023 წლის პუბლიკაციაში შეისწავლა ხელოვნურ ინტელექტთან დაკავშირებული პოტენციური რისკები ადამიანის უფლებების კუთხით.
ანგარიში “ხელოვნური ინტელექტი და ადამიანის უფლებები: რეკომენდაციები კომპანიებისთვის” იძლევა ღირებულ ინფორმაციას პასუხისმგებლიანი ხელოვნური ინტელექტის დანერგვის შესახებ. გაგვაცანით ანგარიშის ძირითადი მიზნები, მისი განვითარების პროცესი და რატომ არის ის მნიშვნელოვანი თანამედროვე ბიზნესებისთვის?
ანგარიში მომზადდა მიუნხენის ტექნიკური უნივერსიტეტის მკვლევრებთან და ექსპერტებთან თანამშრომლობით. მასზე მუშაობის პროცესში, ინფორმაციის მისაღებად, კონსულტაციები გავიარეთ გერმანულ კომპანიებთან ხელოვნურ ინტელექტსა და ადამიანის უფლებებთან დაკავშირებით მათი პრაქტიკის, პროცესებისა და მიღებული გამოცდილების თაობაზე. მთლიანობაში, პუბლიკაციაში მოცემულია კვლევა, თუ როგორ იმოქმედებს ხელოვნური ინტელექტის განვითარება და მისი დანერგვა ადამიანის კორპორაციული უფლებების სათანადო შეფასების ვალდებულებებზე. იგი იძლევა რეკომენდაციებს იმის შესახებ, თუ როგორ შეუძლიათ კომპანიებს ხელოვნურ ინტელექტთან დაკავშირებული სპეციფიკური რისკების გათვალისწინება არსებულ სათანადო შეფასების კორპორაციულ პროცესებში.
ანგარიში განსაზღვრავს ადამიანის სხვადასხვა უფლებებთან დაკავშირებულ რისკებს, რომლებიც ხელოვნური ინტელექტის დანერგვას უკავშირდება. რა არის ყველაზე მწვავე რისკები, რომლებიც კომპანიებმა უნდა გაითვალისწინონ ხელოვნური ინტელექტის სისტემების დანერგვისას?
ხელოვნურ ინტელექტთან დაკავშირებული ადამიანის უფლებების თანმდევი რისკების გააზრება, პირველ რიგში, მოითხოვს ხელოვნური ინტელექტის სისტემების ზოგადი მახასიათებლებისა და პოტენციური პასუხისმგებლობების შესწავლას.
ა) ხელოვნური ინტელექტის სისტემები ეყრდნობა დიდი რაოდენობის მონაცემებს. ამ რაოდენობის მონაცემების შეგროვებამ შეიძლება წამოჭრას მონაცემთა დაცვის საკითხები.
ბ) ხელოვნური ინტელექტის სისტემები ხშირად რთული და გაუმჭვირვალეა. ყოველმა ახალმა მონაცემმა შეიძლება გამოიწვიოს ხელოვნური ინტელექტის მოდელის ადაპტირება, რაც ართულებს იმის წინასწარ განჭვრეტას და გაგებას, თუ როგორ ახდენს ხელოვნური ინტელექტი დასკვნის მიღებას.
გ) ხელოვნური ინტელექტის სისტემები დამოკიდებულია მონაცემებზე და შესაბამისად, იგი მოწყვლადია გაუთვალისწინებელი შეცდომებისა და ალგორითმული მიკერძოებების მიმართ.
დ) დასკვნების გამოსატანად, ხელოვნური ინტელექტის სისტემები ეყრდნობა სტანდარტიზაციას, რაც იწვევს უფრო შორს მიმავალ ზემოქმედებას და შესაძლოა, გამოიწვიოს გამონაკლისების უგულებელყოფა.
ადამიანის უფლებების დაცვასთან დაკავშირებული რისკები, შეიძლება, დაჯგუფდეს სამი ტიპის რისკის კატეგორიად:
- ხელოვნური ინტელექტის ბოროტად გამოყენება ადამიანის უფლებების დარღვევის მიზნით. კომპანიები, რომლებიც ავითარებენ ან იყენებენ ხელოვნურ ინტელექტს, შესაძლოა, არაპირდაპირ, ადამიანის უფლებების დარღვევაში თანამონაწილენი გახდნენ, მაგალითად, პროგრამული უზრუნველყოფის გადაწყვეტილებების მიწოდებით სახელმწიფო სუბიექტებისთვის რომლებიც ხელოვნურ ინტელექტს ეთნიკური უმცირესობების წინააღმდეგ იყენებენ.
- ხელოვნური ინტელექტის გადაწყვეტილებების შემუშავებისას ადამიანის უფლებების არასაკმარისი გათვალისწინება. მაგალითად, როდესაც კომპანია საკუთარი თანამშრომლებისგან აგროვებს პერსონალურ მონაცემებს ხელოვნური ინტელექტის სისტემის ტრენინგისა და განვითარებისთვის, აღნიშნული პირების ინფორმირებისა და მათგან თანხმობის მიღების გარეშე.
- ხელოვნური ინტელექტის დაუცველობამ ალგორითმული მიკერძოების მიმართ, შესაძლოა, გამოიწვიოს (უნებლიედ) დისკრიმინაციული მიდგომა სხვადასხვა ჯგუფის მიმართ. ამის მაგალითია ხელოვნური ინტელექტი, რომელიც აანალიზებს ამჟამინდელი თანამშრომლების რეზიუმეებს და ამგვარად, აღნიშნული ანალიზისა და სწავლის შედეგად, უპირატესობას ანიჭებს, მაგალითად, თეთრკანიანი კაცების კანდიდატურებს.
როგორ მოახდინონ კომპანიებმა ეფექტიანად ხელოვნურ ინტელექტთან დაკავშირებული ადამიანის უფლებების რისკების შეფასების ინტეგრირება მათ არსებულ სათანადო შეფასების პროცესებში? არსებობს თუ არა კონკრეტული მეთოდოლოგიები ან ინსტრუმენტები, რომლებსაც რეკომენდაციას უწევთ?
ხელოვნური ინტელექტის რისკების აღრიცხვის ერთ-ერთი ცენტრალური ასპექტია ადამიანის უფლებათა რისკების ანალიზში ზემოთ ჩამოთვლილი სამივე კატეგორიის რისკის გათვალისწინება. მეორე ეტაპზე, კომპანიებმა უნდა შეიმუშაონ შესაბამისი შემარბილებელი ზომები და საბოლოოდ, თავიანთი ვალდებულებებისა და ქმედებების შესახებ აცნობონ საზოგადოებას.
- ბოროტად გამოყენების ალბათობის შეფასებისას, კომპანიებმა უნდა შეაფასონ საკუთარი ბიზნეს პარტნიორები. მაგალითად, მჭიდრო კავშირები უსაფრთხოების სტრუქტურებთან და სახელმწიფო ინსტიტუტებთან ავტორიტარულ რეჟიმებში, შესაძლოა, წარმოადგენდეს რისკ-ფაქტორსა და გამაფრთხილებელ ნიშანს. პოტენციური ზომები მოიცავს ბიზნეს პარტნიორების სკრინინგს, ან კონტრაქტებში და ქცევის ნორმების კოდექსებში დამცავი პუნქტების ჩართვას.
- ადამიანის უფლებების არასათანადო გათვალისწინების საკითხი შეიძლება გადაიჭრას მონაცემთა შეყვანასთან დაკავშირებული რისკების შეფასებით. განსაკუთრებული ყურადღება შეიძლება გამახვილდეს მონაწილეობისა და ინფორმაციის მიღების უფლებებზე. ამ მიზნით, კომპანიებმა, შესაძლოა, განიხილონ დეველოპერთა გუნდების გადამზადება და მონაცემთა შეგროვების პროცესების გადამოწმების დანერგვა.
- ადამიანის უფლებებზე საზიანო გავლენა განხილული უნდა იყოს რისკების წინასწარი ანალიზის საშუალებით, მაგალითად, ხელოვნური ინტელექტის მიკერძოების პოტენციური წყაროებისა და გავლენების შესწავლით. პოტენციური მიკერძოების დაძლევის ერთ-ერთ საშუალებას ინტერდისციპლინური და მრავალფეროვანი გუნდების შექმნა წარმოადგენს, რომლებიც ხელოვნურ ინტელექტს ავარჯიშებენ და აფასებე. გარდა ამისა, კომპანიებს შეუძლიათ, მათი ხელოვნური ინტელექტის სისტემების აუდიტის ჩატარების მიზნით, დაუკავშირდნენ დამოუკიდებელ და გარე მხარეებს.
არსებობს თუ არა კონკრეტული სექტორები, სადაც ხელოვნური ინტელექტი ადამიანის უფლებებს განსაკუთრებულ გამოწვევებს უქმნის? როგორ უნდა მიუდგნენ ამ სექტორებში მომუშავე კომპანიები ხელოვნური ინტელექტის დანერგვას?
ხელოვნური ინტელექტი, სავარაუდოდ, გავლენას მოახდენს და შეეხება ყველა სექტორს. განსაკუთრებით მგრძნობიარე სფეროები, სადაც მაღალია ადამიანის უფლებებზე სერიოზული ზემოქმედების ალბათობა, არის სამედიცინო და უსაფრთხოების სექტორები. ხელოვნურ ინტელექტს აქვს გამოყენების ფართო სპექტრი ჯანდაცვის სისტემაში, განსაკუთრებით დიაგნოსტიკის მხარდაჭერაში, პერსონალიზებულ მედიცინაში, წამლების აღმოჩენასა და ჯანმრთელობის მონაცემების მართვაში. ჯანმრთელობის უფლებაზე პოტენციურად უარყოფითი ზეგავლენის გამო, ჯანდაცვა მაღალი რისკის სფეროს წარმოადგენს. მეორე მხრივ, უსაფრთხოების სექტორი დაკავშირებულია ხელოვნური ინტელექტის იმ სისტემებთან, რომლებიც შეზღუდული ან აკრძალულია ევროკავშირის ხელოვნური ინტელექტის შესახებ აქტით, მაგალითად სისტემები, რომელთა მეშვეობითაც, შესაძლებელია საჯარო სივრცეებში, რეალურ დროში სახის ამოცნობა.
რა ახალ ტენდენციებს აკვირდებით ხელოვნური ინტელექტისა და ადამიანის უფლებების ურთიერთგადაკვეთის კუთხით? როგორ მოემზადონ კომპანიები მომავალი გამოწვევების გადასაჭრელად?
სავარაუდოდ, უახლოეს წლებში, ხელოვნური ინტელექტის რამდენიმე ახალ სფეროში, სექტორსა და აპლიკაციაში გავრცელების მოწმენი გავხდებით.
ხელოვნური ინტელექტი და მასთან დაკავშირებული რისკები არ შემოიფარგლება მხოლოდ იმ ბიზნესებით, რომლებიც თავად ავითარებენ ხელოვნურ ინტელექტს. კომპანიებმა, პირველ რიგში, თვალი უნდა ადევნონ განვითარების პროცესებს და მეორე – ხელოვნურ ინტელექტთან დაკავშირებული ადამიანის უფლებების რისკები უნდა ჩართონ თავიანთ არსებულ კორპორაციული სათანადო შეფასების პროცესებში.