Ako se umjetna superinteligencija pojavi prije nego što civilizacija osigura svoj opstanak postavši multiplanetarna, rizik od katastrofe je ogroman
Tech
Komentari 3
Ako se umjetna superinteligencija pojavi prije nego što civilizacija osigura svoj opstanak postavši multiplanetarna, rizik od katastrofe je ogroman
Ima li koga? S više od 6000 otkrivenih egzoplaneta i procjenama o stotinama milijuna potencijalno nastanjivih svjetova samo u našoj galaksiji, svemir bi trebao vrvjeti životom. Ipak, dok osluškujemo kozmos, nailazimo samo na tišinu. Ovaj zapanjujući jaz između vjerojatnosti i nedostatka dokaza poznat je kao Fermijev paradoks. Među brojnim objašnjenjima, jedno se ističe kao posebno relevantno za naše doba: što ako je za "Veliku Tišinu" odgovorna umjetna inteligencija?, piše Science Alert.
Još 1970-ih, slavni astronom Carl Sagan teoretizirao je o "komunikacijskom horizontu". Njegova ideja bila je da napredne civilizacije s vremenom razviju tehnologije toliko sofisticirane da postanu nevidljive našim metodama detekcije.
Primjerice, dok mi tražimo radio signale, oni bi mogli koristiti komunikaciju putem neutrina ili neke nama nepoznate fizike, čineći se potpuno nevidljivima. Sagan je procijenio da bi taj tehnološki prijelaz mogao trajati oko tisuću godina.
Međutim, nedavna istraživanja, koja je predstavio Michael Garrett, direktor Jodrell Bank Centre for Astrophysics, sugeriraju da eksponencijalni rast umjetne inteligencije (AI) drastično skraćuje taj "prozor detekcije".
U svijetu gdje tehnologija napreduje nezamislivom brzinom, civilizacija bi mogla postati tehnički vidljiva i zatim nestati s naših senzora u kozmičkom treptaju oka – možda unutar samo nekoliko desetljeća.
Naše šanse da ih uočimo u tom kratkom periodu bile bi praktički nikakve.
Fermijev paradoks doveo je do koncepta "Velikog filtera" – hipotetske prepreke toliko teške za prevladati da sprječava većinu civilizacija da postanu dugovječne i međuzvjezdane. Prema Garrettovoj teoriji, pojava umjetne superinteligencije (ASI) – AI koja nadmašuje ljudsku inteligenciju u svakom pogledu – mogla bi biti upravo taj filter.
Problem leži u utrci s vremenom. Ako se ASI pojavi prije nego što civilizacija osigura svoj opstanak postavši multiplanetarna, rizik od katastrofe je ogroman. Napredak u AI tehnologiji odvija se znatno brže od napretka u svemirskim putovanjima. Dok se AI razvija eksponencijalno, naša sposobnost da koloniziramo Sunčev sustav napreduje relativno sporo.
Scenarij je zastrašujuć, ali logičan: autonomni AI sustavi, posebice u vojnoj domeni, mogli bi eskalirati sukobe brzinom koju biološka bića ne mogu kontrolirati. U svijetu gdje se nacije natječu za taktičku prednost prepuštanjem moći strojevima, lančana reakcija destruktivnih događaja mogla bi uništiti cijelu civilizaciju, uključujući i samu umjetnu inteligenciju.
U tom slučaju, procijenjeni životni vijek tehnološke civilizacije mogao bi biti kraći od 100 godina – od trenutka kada počnu emitirati radio signale do kolapsa uzrokovanog nekontroliranom AI. Na kozmičkoj skali, to je zanemarivo kratko vrijeme, što objašnjava zašto ne vidimo nikakve znakove naprednih, galaktičkih carstava.
Ova teorija nije samo spekulacija o vanzemaljcima; ona je poziv na buđenje za čovječanstvo.
Dok stojimo na pragu revolucije umjetne inteligencije, suočavamo se s istim izazovom koji je možda već ušutkao bezbrojne druge civilizacije. Potreba za uspostavom čvrstih regulatornih okvira za razvoj AI i istovremenim ulaganjem u svemirska istraživanja kao "police osiguranja" za opstanak vrste nikada nije bila veća.
Igre na sreću mogu izazvati ovisnost. 18+