Изкуственият интелект може да е новата атомна бомба





Трябва да има гаранции, че правата и свободите се уважават, убедени са юристите

Колко застрашени са човешките права от изкуствения интелект? Ще повтори ли човечеството грешките със социалните мрежи? Има ли сфери от живота, в които изкуственият интелект (ИИ, AI от английски) не трябва да бъде допускан? Има ли опасност ИИ да ни завладее и как да бъде намерена точната му регулация?

Това са въпроси, които все по-често ще си задаваме, докато ИИ навлиза все по-дълбоко в живота ни.

В момента Европейският съюз работи по първата си регламентация на ИИ. Законът за ИИ трябва да го регулира въз основа на способността му да причинява вреда.

Преди година редица организации от цял свят, включително Българският център за нестопанско право, се обърнаха към европейските институции със становище за пропуските в първоначалния вариант на регулацията. Те например настояваха да отпадне изключението от закона за системите за ИИ, пуснати на пазара, въведени в експлоатация или използвани за целите на “националната сигурност”. Това обаче не се случи. В началото на декември след преговори, които продължиха повече от денонощие, политиците на ЕС намериха споразумение за рамката на закона.

Законът за ИИ включва списък със забранени приложения, които са неприемлив риск, като манипулативни техники, системи, използващи уязвимости, и социално оценяване. Евродепутатите добавиха бази данни, базирани на групово изтриване на изображения на лица като Clearview AI. Също така ще има

забрана за разпознаването на емоции на работното място

и в образователните институции, с предупреждение от съображения за безопасност, предназначени да разпознават, ако например шофьор заспи.

Беше въведена забрана на полицейски софтуер за оценка на риска на дадено лице за извършване на бъдещи престъпления въз основа на личните му черти.

По настояване на европейските правителства парламентът отмени забраната за използване на дистанционна биометрична идентификация в реално време в замяна на някои тесни изключения от правоприлагащите органи – за предотвратяване на терористични атаки или локализиране на жертви или заподозрени в предварително определен списък с тежки престъпления.

Последващото използване на тази технология ще има подобен режим, но с по-малко строги изисквания. Евродепутатите настояха тези изключения да се прилагат само когато са строго необходими въз основа на националното законодателство и предварително разрешение от независим орган. Комисията трябва да наблюдава потенциалните злоупотреби.

Депутатите настояха, че забраните не трябва да се прилагат само за системи, използвани в рамките на Съюза, но също така да попречат на базираните в ЕС компании да продават тези забранени приложения в чужбина. Тази забрана за износ обаче не беше запазена, тъй като беше счетено, че няма достатъчно правно основание

Регламентът за ИИ включва списък със случаи на употреба, за които се смята, че са изложени на

значителен риск да навредят на безопасността и основните права

на хората. Такива области са образование, заетост, критична инфраструктура, обществени услуги, правоприлагане, граничен контрол и правораздаване.

Административните глоби се определят като минимална сума или процент от годишния глобален оборот на компанията, ако последният е по-висок.

За най-тежките нарушения на забранените приложения глобите могат да достигнат до 7% или 35 милиона евро, 3% или 15 милиона евро за нарушения на задълженията на доставчиците на системи и модели и 1,5% за непредоставяне на точна информация.

“Както обикновено, технологията изпреварва правната регулация и има има рискове”, коментира пред “Сега” адвокат Екимджиев. Според него обаче рисковете биха били още по-големи, ако още преди да сме опознали достатъчно добре изкуствения интелект, да наложим твърде строги рамки, които да ограничат навлизането му в живота.

Адвокатът сравнява ситуацията с навлизането на интернет преди 30 години и огромните възможности, които той даде за преформатиране на различни сфери от живота. ИИ може да засегне сфери от личния живот до авторските права. Въпросът е не само правен, но и философски, и етичен.

“Регулация ще се намери, но на принципа на проба-грешка. Правят се опити на ниво европейско право, но те не могат да са всеобхватни и детайлизирани и затова, когато възникнат правозащитни проблеми, те ще бъдат решавани на база на принципи на правото и търсене на аналогии в подобни случаи”, смята Екимджиев. По думите му юристите, които не страдат от догматично разбиране за правото и са високо ерудирани, това няма да е непреодолимо предизвикателство.

Столетия и хилядолетия

човек е бил обект на пропаганда, най-често от страна на държавите,

откакто съществуват идеологии. Но винаги някак си е могъл да се противопостави, ако има в главата си база, информация, образование, той не е бил само пасивен обект. Сега се получава нещо качествено ново, през мобилните ни устройства ИИ може да изгради много точен наш профил през информацията какво четем, къде се движим, какво си купуваме. Това профилиране може да оформи политически и електорален профил.

Много е вероятно вашият мобилен телефон да знае преди вас, ако имате нетрадиционни сексуални предпочитания, цитира Екимджиев Ювал Харари (“21 урока за 21 век”).

Юристът посочва още, че до избора на Доналд Тръмп за президент на САЩ, както и до Брекзит се е стигнало точно в резултат на обработване на такива данни от съответните политически сили. От тази гледна точка е изключително важно да не се създават ненужни бюрократични спънки за развитието на ИИ, който може да е изключително полезен. “Но трябва да бъдем много внимателни, за да не започне ИИ да доминира над естествения, за да не изпуснем добрия дух от бутилката”, казва Екимджиев. Той сравни ИИ с атомната енергия – може да се ползва за добро, но може да бъде и разрушителна.

Друг правозащитник – адвокат Александър Кашъмов, признава, че по темата за ИИ е консервативен. Той казва, че използването на новите технологични възможности винаги минава под знака на подобряване на икономическото положение на хората. Но ако позволим с това да се ограничават права, всъщност

работим против човека и цивилизацията

Може да ограничим печалбата. Но е важно хората да са свободни и да бъдат оценявани справедливо, посочва той.

И дава за пример оценките, които се правят в момента предимно в сферата на кредитите – пускат профила на човека в системата и тя “изплюва” дали е надежден или не. А винаги, когато се правят такива оценки, хората са изложени на риск. “Всеки може да се досети колко сериозни стават нещата, ако се изправим през съд, който се председателства от изкуствен интелект”, казва Кашъмов и допълва, че силно се надява, че човечеството няма да стигне до такава степен на оглупяване. “Правораздаването трябва да е сфера, в която ИИ да навлезе накрая или изобщо да не навлиза”, смята адвокатът.

Той е убеден, че трябва да се направи оценка на ползите и рисковете от ИИ от гледна точка на човешките правата. “Има смисъл да бъдат квалифицирани и степенувани възможностите за използване на ИИ в различни области”, казва той. И вижда приложението му в медицината, например. Или в образованието, стига да не бъде оставен да е единственият учител.

Най-големият проблем е, че

ИИ не носи отговорност за действията си.

Това е, което отличава човешкото общество.

“Където се вземат предвид повече фактори, където има нужда от многофакторно мислене, там трябва да оставим за господар човека”, убеден е Кашъмов. Според него регулациите на ИИ трябва да следват точно този принцип.

В момента, според него, наченки на по-сериозна регулация има в регламента за защита на личните данни (GDPR). Администраторът на лични данни е длъжен да информира субекта, ако той бива оценяван от ИИ. “В такъв случай трябва да имаме права и възможност да оспорим решението пред човешка мисъл”, обяснява Кашъмов.

“Правото да знаеш, че ИИ е взел решението за теб ще бъде от съществено значение, за да се противопоставим на някаква утопична диктатура на машините”, допълни той.

Пред такъв нов Голиат, Давид, като еманацията на човека, трябва да има своите шансове.

“Ако утре всички се окажем пред казуса, че е подкопана идеята за справедливост в световен мащаб, това ще е много по-голям проблем от това, че гладът, например, не е спрян толкова бързо, колкото бихме искали”, обобщи Кашъмов.

И друг юрист правозащитник – Надя Шабани, която е директор на Българския център за нестопанско право, също се опасява, че покрай предимствата на ИИ, ни дебнат и старите рискове. Например за маргинализиране и дискриминация на определени групи. Затова и при регулацията на ИИ трябва да се създадат гаранции, че тези пороци няма да се мултиплицират.

“Сложното на внедряването му е, че той от една страна създава невероятни предимства, но покрай тях може да се окаже, че нямаме достатъчно проверки дали решенията за нас се вземат безпристрастно или ако не сме доволни, дали можем да се оплачем и достатъчно бързо да потърсим защита”, казва Шабани.

Със сигурност по-слабите,

необразованите, бедните, различните са по-застрашени да станат жертва

на отрицателните последици от използването на ИИ. Като цяло те ще имат и по-труден достъп до ресурсите му, което още повече ще задълбочи различията.

Тя също е на мнение, че има сфери от живота, където ИИ не трябва да бъде допускан. Например – правораздаването. Това не означава, че професията не може да използва ИИ – например, за да обработва големи бази данни. Съдът обаче се води не само от закона, а и от съвестта си – нещо, което ИИ няма. Колкото до образованието, Шабани смята, че инвестициите в тази сфера трябва да са насочени към това да се обучаваме (всички, не само децата) как да използваме ИИ и така да ставаме функционално по-грамотни и адаптивни.

“Не се страхувам, че машините ще ни превземат. Но като граждански активист мисля за заплахите за правата. Не можем да оставим навлизането на технологиите да се случва на принципа на естествения подбор. То ще доведе до ощетяване на определени групи и индивиди. В модерната държава не е важно да оцелее всеки един от нас поотделно, а да се грижим един зад друг”, обобщава тя.

Модерният свят е модерен и заради това, че мислим за защитата си и си даваме гаранции за общо благоденствие. Ако не поставим това като цел, страданията, които имаме в извънтехнологичния свят – дискриминация, ограничаване на правата на човека, ще ги видим десетократно в дигиталния свят. Шабани предупреждава, че не трябва да повтаряме грешките със социалните мрежи, защото вече видяхме как чрез тях се развиват политически сценарии.

Тя дава пример как и сега може да се обжалва, ако социалните мрежи свалят даден пост, например. Но въпреки обжалването, накрая потребителят не получава информация кой е взел решението. Кампанията на БЦНП например за по-голяма прозрачност на сайта на Народното събрание е забранена от “Мета” с обяснението, че се прави от политически играч, което не е вярно. Докато политически играчи правят каквото искат из Фейсбук и дезинформират без последици.

Затова и Шабани е за стриктната регулация като правата на човека трябва да са и рамката на тази регулация. Решенията на ИИ трябва да могат да се обжалват пред човек и да могат да се ревизират от човек.

Четете неудобните новини, които не можеме да поместим тук поради фашистка цензура в нашия ТЕЛЕГРАМ КАНАЛ.

Абонирайте се за нашия Телеграм канал: https://t.me/vestnikutro

Влизайте директно в сайта.

Споделяйте в профилите си, с приятели, в групите и в страниците. По този начин ще преодолеем ограниченията, а хората ще могат да достигнат до алтернативната гледна точка за събитията!?







БЕЗПЛАТНИ ОБЯВИ

Изпратете рекламен текст и снимки на нашия месинджър и ще бъде своевременно публикувана безплатно. Вашата реклама се публикува в осем издания с над два милиона и двеста хиляди (2, 200,000) читатели и в социалните мрежи, където достига до над девет милиона (9, 000,000) потребители!

FOLLOW US ON

New title1365105
ЗА КОНТАКТ

Най добрият и бърз начин да се свържете с нас е по месънджър на Фейсбук. Нашият адрес:
– – –
The San Francisco Telegraph
2076 – 16th Avenue, Suite A
San Francisco, CA 94116 USA

1 AEROPST WAY
MIAMI, FLORIDA
33206-3206
USA
“VOICE FROM AMERICA”
Phone: +789 322 2032

1958 South 950 East
Provo, UT 84606
United States
Phone: 801-765-9400
Fax: 801-765-1992