robot

Во воведниот текст Заканата од ВИ – дел 1 – Вовед ги објаснив некои од главните прашања и проблеми со кои ќе се соочуваме во следните неколку декади при се` подлабокото воведување на синтетичката интелигенција (СИ) во нашите општества и животи.

Нормално, научниците и технолошките иноватори се една интересна група на суперпаметни луѓе, па се свесни за оваа потенцијална закана и веќе некое време апелираат да започнеме со нејзино „надитрување“. Елајзер Јудковски, Ник Бостром, Хуго де Гарис, Алан Туринг, Стивен Хокинг, Елон Маск се само дел од овие брилијантни умови кои се загрижени околу нашата иднина. За жал, изгледа дека во главно ги игнорираме, несвесни за важноста на тоа на кое укажуваат веќе една деценија.

Идејата на Елон Маск

elon-musk-ai-LW3A1386-s-932x699

Маск веројатно сите кои читаме Смартпортал го знаеме, и знаеме дека се работи за човечиште-иноватор кој има започнато проекти од огромно значење за човештвото, како приватната вселенска агенција SpaceX и веројатно најпознатата компанија за производство на електрични возила Tesla Motors.

Неговата ангажираност и вклученост во светот на технологијата му овозможува да дојде до информации на лице место кои се однесуваат на развитокот на овој свет, па така и до такви околу развитокот на СИ. Впрочем, Tesla Motors започнува со активно експериментирање со СИ преку вградување на автопилот во нивните електрични возила, нешто што се` уште не е „испеглано“ како што треба.

Маск исто така знае дека опасноста од СИ се ближи (поточно, според него дека ќе не` збрише како спам). Неговиот предлог за решавање на овој проблем е преку новоформираната компанија OpenAI во соработка со Питер Тиел, Рајд Хофман (LinkedIn), Илија Судскевер (Google) и Грег Брокмен (Stripe) и други, чија главна мисија е истражување во полето на СИ, а потоа негово слободно ширење на јавноста.

Како што може да се види на самата веб-страница, нивната цел е

… да се напредува дигиталната интелигенција на начин кој е најверојатен дека ќе придонесе на човештвото во целина, неограничен од потребата да создаде финансиска добивка.

Бидејќи нашите истражувања се ослободени од финансиски обврски, можеме подобро да се фокусираме на позитивно влијание врз луѓето. Ние веруваме дека ВИ треба да биде продолжеток на индивидуалните човекови желби и, во духот на слободата, колку што е можно пошироко и поеднакво распоредена.

Во основа, нивната идеја е развиток на отворен код и архитектури кој потоа ќе бидат превземени и развиени од човештвото, кое пак би требало да се осигура дека ќе бидат развиени во духот на етичките стандарди.

Критика кон OpenAI од Сузан Садедин

artificial-intelligence-space-invaders

Секако, научниците не секогаш се согласуваат со своите ставови, а особено постојат различни ставови за теми кои се од суштинско значење за човештвото како оваа. Една од посилните критики е од страна на еволутивниот биолог Сузан Садедин, нашироко позната на Quora каде што учествува во одговарањето на многу прашања од нејзината и други области.

Според нејзе, пристапот на отворен код и архитектура е погрешен и ќе придонесе до поголеми проблеми. Имено, таа ги набљудува работите од еволутивната перспектива која несомнено го води развитокот на сите световни системи. Во нејзиниот светоглед, човештвото веќе има создадено системи на вештачка интелигенција (во овој случај, несинтетичка) какви што се компаниите, државите и другите организации.

Овие организации покажуваат насоченост кон остварување на своите цели и кон кибернетскиот феномен да бидат „повеќе од збирот на нивните составни делови“, кои во овој случај се луѓето. Тоа што Садедин го има забележано е дека сите овие организации за жал се однесуваат исклучително натпреварувачки меѓу себе и ретко имаат дух на соработка, и тоа токму поради тоа што се соочени со ограничени ресурси.

Според нејзе (и според теоријата на игри), во ситуации на ограничени ресурси, без вградени механизми за соработка меѓу агентите на системот, тие логички бираат да бидат најсебични што можат и да заграбат максимум од ограничените ресурси. Ова пак резултира во жесток натпревар кој често го уништува ресурсот, а тоа најчесто значи уништување и на учесниците во натпреварот.

Нејзиниот страв е дека со пуштањето на слободен код и архитектура во јавноста ќе се создаде ситуација каде огромен број на интелигентни агенти ќе навлезат во агресивна борба за ограничените ресурси – и ќе се и не` (само)уништат.

Луѓето низ еволуцијата имаат акумулирано еволутивни приспособувања кои им овозможуваат соработка со други луѓе бидејќи соработката најчесто ги буткала тие групи и поединци на подобра позиција од тие кои не соработувале (за повеќе провери ја теоријата за роднински одбир (kin selection)).

За жал, според нејзе интелигентните агенти во услови на жесток натпревар нема да имаат слични еволутивни притисоци и нема да развијат дух на соработка, барем навремено за да се одбегне меѓусебно уништување. Единствениот начин е СИ да се развива во концентрирани, ограничени напори, веројатно под контрола на научни и државни безбедносни кругови.

algorithmia-ft1

Кој е во право тешко е да се каже. Двата става „држат вода“ и се со добра намера, а не се сомневаме дека државните безбедносни и истражувачки агенции на најмоќните сили на Земјата веќе работат на развивање на СИ агенти. Жалното е што ова го прават најверојатно за да бидат во подобра позиција во однос на останатите, што повторно го засилува проблемот на натпревар и трката на вооружување.

Дали ќе се самоуништиме преку создавање на СИ? Ова останува да го истражиме во следните текстови.

Дополнителни информации: Wired 1, 2, Inc.com, Quartz, Quora

Претходна статијаГрупни видео повици доаѓаат на Skype за Android, iOS и Windows 10 Mobile
Следна статијаLenovo Lemon 3 – Евтин смартфон со карактеристики на високата класа