Një prej ish-drejtuesve më të lartë të Google ka paralajmëruar së fundmi se inteligjenca artificiale do të përdoret për të vrarë njerëz në masë të gjerë në të ardhmen.
Eric Schmidt, i cili kaloi dy dekada në detyrë si CEO i gjigantit të kërkimit, tha në një mbledhje të drejtuesve të lartë të mërkurën se ai beson se AI paraqet një “rrezik ekzistencial për njerëzimin, duke përcaktuar se shumë, shumë njerëz do të dëmtohen ose vriten“.
Schmidt, i cili kohët e fundit kryesoi Komisionin e Sigurisë Kombëtare të SHBA-së për AI, është i fundit në një mori ish-punonjësish të Google që doli publikisht kundër zhvillimit të shpejtë të teknologjisë në javët e fundit.
Ai u fokusua veçanërisht në aftësinë në rritje të AI për të identifikuar dobësitë e softuerit për hakerat dhe gjuetinë e pashmangshme të teknologjisë për rrugë të reja biologjike, të cilat mund të çojnë në krijimin e bioarmëve të reja të frikshme.
“Ka skenarë jo sot, por mjaft shpejt, ku këto sisteme do të jenë në gjendje të shfrytëzojnë dobësitë e kibernetikës që nga shfrytëzimi i ditës zero, ose të zbulojnë lloje të reja armësh biologjike“, tha Schmidt përpara Samitit të Këshillit të CEO-ve të Wall Street Journal në Londër.
Të ashtuquajturat ‘shfrytëzimi i ditës zero’ janë të meta sigurie në kod – kudo që nga llogaritja personale te bankat dixhitale tek infrastruktura – që sapo janë zbuluar dhe kështu nuk janë rregulluar ende nga ekipet e sigurisë kibernetike, të cilat kthehen në mjete të çmuara në arsenalin e hakerëve.
“Ne duam të jemi gati të dimë se si të sigurohemi që këto gjëra të mos keqpërdoren nga njerëzit e këqij”, nënvizoi Schmidt.
Komentet e Schmidt, të cilat nuk janë paralajmërimet e tij të para, i bashkohen një debati të ashpër në të gjithë Silicon Valley mbi pyetjet morale dhe rreziqet mortore të paraqitura nga AI.
Elon Musk, bashkëthemeluesi i Apple, Steve Wozniak dhe i ndjeri Stephen Hawking janë ndër kritikët më të famshëm të AI, të cilët besojnë se “paraqet një rrezik të thellë për shoqërinë dhe njerëzimin dhe mund të ketë efekte katastrofike”.
Discussion about this post