Кога се зборува за „лоша“ вештачка интелигенција, веднаш замислуваме апокалиптично сценарио во кое ние сме робови на нашите технички совршени господари. Или пак, се плашиме дека роботите ќе ни ги земат работите (римата е ненамерна).

И покрај тоа што овие сценарија не се неостварливи, сепак, последиците можат да бидат поопширни, но и затскриени и тешко предвидливи. Истражувачи од неколку организации кои се бават со оваа тематика (Future of Humanity Institute, OpenAI и други), објавија извештај во кој се осврнуваат кон опасностите кои ги носи со себе напредна ВИ.

Извештајот („Малициозна употреба на вештачка интелигенција: предвидувања, превенција и намалување на ризикот“) се фокусира на краток временски рок: наредните пет години. Уште поважно, нуди препораки за тоа како да се спречи остварувањето на апокалиптични сценарија и загуба на човечки живот.

Вакви трудови не среќаваме често. Навикнати сме да слушаме само панични изјави и апели за „акција“, но без понуда на конкретни мерки кои може, и треба да се преземат на краток рок.

Една од најморничавите работи за кои може да биде употребена ВИ е за да генерира лажни аудио/видео материјали. Односно, за некое време ќе може да се создаваат веродостојни видео клипови користејќи го гласот и ликот на познати личности или политичари. Не треба да се образложува какви негативни последици може да има ваквата ситуација, знаејќи ја паниката која ја предизвикаа мала група на средношколци од Велес. Вештачката интелигенција е веќе доволно напредна за да клонира човечки гласови. Или пак, да креира лажни видео клипови од поранешни претседатели.

Уште поинтересно, во извешајот е наведено дека ВИ може да биде употребувана и за терористички цели. Односно, терористите може да вметнат екплозив во малите роботчиња дизајнирани да го чистат подот („Румба“). Овие роботчиња можат да бидат дизајнирани да го активираат експлозивот кога во нивна непосредна близина ќе се најде определен политичар.

Не мора да говориме околу потенцијалните последици врз приватноста. Моќта на технологијата е веќе ползувана од страна на кинеските власти, кои претвориле цел регион (Xinjiang) во апарат за шпионирање.

Истражувачите наведуваат дека академската заедница која работи на овој проблем треба отворено да дискутира за можните негативни последици на ВИ. Понатаму, тие укажуваат на потребата од изработка и следење на етичка рамка за ВИ и дека целата јавност треба да биде вклучена во овие дискусии.

Во секој случај, не очекува бурен период во кој ќе се „кршат копјата“ за понатамошниот развој и употреба на вештачката интелигенција.