Да тргнеме од почетокот: вештачката интелигенција ќе прави грешки. Автономните возила не се стигнати до тој степен за да бидат пуштени на улица да превезуваат патници без никаква човечка интервенција. Иако, често несреќите во кои има загуба на човечки живот во кои се вклучени автономни возила се случуваат поради токму човечка грешка, а не пад на автономниот систем.

Автономните возила се по природа морничави, од повеќе причини. Да го земеме за пример моделот Tesla. Станува збор за возило чиј софтвер е контролиран од далечина и во кој ние немаме никаков удел. Контролиран од компанија со која единствената врска ни е тоа што поседуваме возило кое таа компанија го произвела.

Причините за загриженост се многубројни: како прво, што ако го хакираат возилото, што ако некој се реши да си поигрува со софтверот среде автопат? Дури и ако системот е bulletproof, што ако самата компанија е пробиена, или што ако недоговорноста на нејзините инженери доведе до таква грешка која би довела до загуба на животи? Овие сценарија стануваат се помалку остварливи, но се додека овие софтвери не постигнат речиси совршенство, секогаш ќе постојат сомнежи во нивното имплементирање.

Но, и покрај сето ова, прашањето е дали горенаведените причини се доволни за да се „оглупави“ вештачката интелигенција. Tоа е една од можните непосакувани последици од предлогот на Европската Комисија, содржан во својата Регулација за заштита на личните податоци. Односно, во предлогот е нотирано дека корисниците треба да имаат „право на објаснување“. Тоа значи дека алгоритмите ќе бидат ограничени во носењето на одлуки кои би имале значително влијание врз крајните корисници. Односно, компаниите ќе имаат обврска да им објаснуваат на корисниците (доколку овие го побараат тоа) зошто конкретна одлука, за на пример, надградба на софтверот на нивното автономно возило била донесена.

Ова создава главоболки за компаниите, кои ќе мора да се соочуваат со секакви закани од казни и негативни последици доколку не ги исполнат очекувањата на корисниците. Од друга страна, за пзодравување е напорот за транспарентност кога станува збор за нејасно поле какво што е полето на вештачка интелигенција. Сепак, се движиме кон општество кое речиси целосно ќе биде автоматизирано, па логично е да имаме увид во процесите зад таквото уредување.

Во секој случај, претераната регулација и барања од компаниите кои се лидери на овој фронт може да имаат свои непосакувани последици. Односно, компаниите може да одлучат дека е повеќе профитабилно да создаваат „глупава“ ВИ. А тоа не е корисно за никого.

Претходна статијаFacebook ја воведува ознаката „Breaking news” за објавите на мрежата
Следна статијаUbisoft ќе идентификува bug-ови со помош на ВИ, уште пред истите да бидат направени