#Стигнахме ли до момента, в който изкуственият интелект (ИИ) се внедри в нашето общество до степен такава, че да има нужда от специален закон и регулации? Може ли въобще ИИ да носи наказателна отговорност и как ще бъде наказван? Няма ли ИИ да намери своите вратички в този закон? В студиото на #Maтине са Христина Богиа - юрист и експерт по темата за защита на личните данни и Йордан Даракчиев - човекът, който обучава и компютри, и хора!

По Закон за контрола и регулациите на ИИ се работи отдавна, споделя Христина Богиа, но макар да има текстове, които се анализират от експерти, той все още не е факт. Трябва да мине цялостната законодателна процедура преди да влезе в сила, уточнява тя. 

"Тези закони са нужни по-скоро за хората", казва Христина Богиа.

Можете да слушате #Матине в Spotify и Google Podcasts.

 

Обучението на алгоритми не е много по-различно от обучението на хора, споделя още Йордан Даракчиев. 

"Имаме един реален свят и начин, по който да го моделираме. Така, както обучаваме нашата памет и мозък. Как става номерът? Имаме празен алгоритъм. Задаваме му цел - нещо, което трябва да достигне. Тя може да е фиксирана или динамична. В много случаи целта не може да бъде програмирана в стъпки, а да се разбере от реалния свят. Тогава говорим за машинно обучение. Задаваме му примери какво се приема и какво да обхване този модел и се надяваме на базата на тях - да се научи и ИИ", обяснява Йордан. 

Цел, данни, процес на обучение

Това са трите неща, в които хората могат да се намесят, обучавайки машините. 

Своеволията, които можем да си позволим обаче, обучавайки машини, са всякакви. И там са рисковете и за обществото. Нито един модел не е перфектен. В този смисъл, можем да кажем, че компютърът е изкривено огледало на своя учител. 

"Например една компания традиционно е наемала мъже. В един момент това започва да се прави от алгоритъм. Този алгоритъм, вижайки данни от предишни години, забелязва, че са наемани предимно мъже за тази позиция. Той няма да се научи да наема жени, докато не му бъде зададен нов модел", споделя Даракчиев. 

Бидейки скептични като общество по отношение на подлушване и следене, Рени Веселинова разговаря с Йордан Даракчиев и Христина Богиа за начините, по които това се случва посредством компютри. Например:

Следене през Bluetooth устройствата ни

"Ползвам AirTag, даже го закачам на детето си", казва Христина. "Проблемът идва не от това, че нашите Bluetooth устройства, които ни проследвят локацията, може да бъдат хакнати, а от това, че се използват от престъпници да проследяват жертвите си. Най-често се случва при домашно насилие, когато бивши партньори подхвърлят във вещите на потенциалната си жертва такива устройства", споделя юристът.

Най-популярните Bluetooth усторйства вече са взели мерки да ограничат тези опасности, но има и такива, които не са предприели нищо. Вече има начини  устройствата да предупреждават ползвателя си, че е заложен tracker, който го следи. Също така има и приложения, които установяват наличието на устройства за следене в стая. 

"Отново щетите идват не от машините, а от хората", уточнява Христина Богиа. 

Дори в момента алгоритмите вече имат свой разсъдък. По-сложна е темата с развитие на емоциите в една машина. Но би могло да се случи в даден момент - отново чрез правилния модел, който още не е измислен. 

"Това пак е проблем, който идва от хората. Човек, който си купува самоуправляваща се кола, иска да бъде Тя или Той. Тоест, ако няма пол, човек не се асоциира толкова с нея. Машините могат да имитират емоции и всички мисловни процеси, които ги събуждат. Но не могат да управляват емоции. Докато ние хората сме чувствителни, привързваме се към всичко, което имаме, най-вече, когато е ново", казва Йордан. 

Всяка една част от човешкия мозък може да бъде заложена и в модела на ИИ, обобщава експертът. 

Компютърът няма да те убие, но човекът, който използва компютърът може. Човекът, който иска да прави зло, трябва да бъде спрян на човешко ниво, а не на ниво алгоритъм.

Докато се страхуваме от ИИ, всъщност се страхуваме от хората около себе си. 

И още - защо Европейският комитет по защита на данните (ЕКЗД) и Европейският надзорен орган по защита на данните (ЕНОЗД) излязоха с обща позиция за забрана на използването на технологии с изкуствен интелект (ИИ) за лицево разпознаване и следене на поведенчески сигнали на обществени места. Появиха ли се вече опасности от злоупотреба на ИИ с личните ни данни или е по-скоро психологически страх? 

Какво му е хубавото на ИИ? Чуйте във видеото! 

*Можете и да гледате #Матине на екран - всяка събота и неделя от 10:00 ч. в ефира на WNESS TV!