Hem
Illustrationsbild. (Shutterstock)

AI-expert skjuter fram årtal för superintelligens

Den tongivande AI-experten Daniel Kotokaljo senarelägger datumet för när han tror att AI-system tar de första stegen mot att ta över planeten, skriver The Guardian.

Idén är att AI-program inom kort kommer att börja koda självständigt och på så sätt dramatiskt öka takten i stegen mot superintelligens. När superintelligensen är verklighet är det bara en tidsfråga innan den förstör hela mänskligheten, lyder teorin.

I början av 2025 skrev Kotokaljo, som tidigare arbetade på Open AI, en uppmärksammad artikel tillsammans med några kolleger där de varnade för att AI-program skulle kunna börja koda självständigt år 2027. Det har nu reviderats till början av 2030-talet.

bakgrund
 
AGI
Wikipedia (en)
Artificial general intelligence (AGI)—sometimes called human‑level AI—is a hypothetical type of artificial intelligence that would match or surpass human capabilities across virtually all cognitive tasks. Beyond AGI, artificial superintelligence (ASI) would outperform the best human abilities across every domain by a wide margin. Unlike artificial narrow intelligence (ANI), whose competence is confined to well‑defined tasks, an AGI system can generalise knowledge, transfer skills between domains, and solve novel problems without task‑specific reprogramming. The concept does not, in principle, require the system to be an autonomous agent; a static model—such as a highly capable large language model—or an embodied robot could both satisfy the definition so long as human‑level breadth and proficiency are achieved. Creating AGI is a stated goal of AI technology companies such as OpenAI, Google, xAI, and Meta. A 2020 survey identified 72 active AGI research and development projects across 37 countries. AGI is a common topic in science fiction and futures studies. Contention exists over whether AGI represents an existential risk. Some AI experts and industry figures have stated that mitigating the risk of human extinction posed by AGI should be a global priority. Others find the development of AGI to be in too remote a stage to present such a risk.
Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen