Vad är Technological Singularity?

Technological Singularity , eller helt enkelt "Singularity", är ett mångfacetterat begrepp i futurism med flera överlappande och ibland motstridiga definitioner. Den mest relevanta och framträdande definition av Singularity gavs av Vernor Vinge i sin essä, Coming Technological Singularity . Den hänvisar till den punkt där övermänsklig intelligens skapas tekniskt. Dessa övermänskliga intelligenser kan då använda sina intellektuella resurser och kompetens för uppgiften att skapa ytterligare eller mer kraftfull övermänskliga intelligenser, vilket ger en snöbollseffekt med konsekvenser bortom vår nuvarande förmåga att föreställa sig.

"termen teknisk Singularity" myntades av analogi till singulariteten i mitten av ett svart hål, där naturens krafter blivit så intensiv och oförutsägbar som vår förmåga att beräkna beteendet hos materien under dessa omständigheter sjunker till noll. Ofta nämns i samband med idén om övermänsklig intelligens i Singularity dialoger är begreppet accelererande teknisk förändring. Vissa har hävdat att eftersom lutningen tekniska framstegen ökar kommer det att utmynna i en asymptote, liknande visuellt en matematisk singularitet. Detta är dock begreppet singularitet inte samma som Vinge avsett, med hänvisning till uppkomsten av övermänsklig intelligens, tillsammans med övermänsklig tänkande hastigheter. (Inklusive smartness, förmåga att förstå och skapa begrepp, omvandla data till teorier, göra analogier, vara kreativa, och så vidare. ) Även övermänsklig intelligens skapa ytterligare övermänsklig intelligens verkligen skulle leda till snabbare tekniska utvecklingen, skulle utvecklingen inte bli oändlig, i den meningen att en matematisk singularitet skulle föreslå. Eftersom övermänsklig intelligens skulle per definition vara smartare än någon människa, vår förmåga att förutse vad de skulle kunna med en viss tid, material eller energi kommer knappast att vara korrekt. En övermänsklig intelligens skulle kunna mode en fungerande superdator av billiga och lättillgängliga komponenter, eller utveckla fullfjädrad nanoteknik med bara en atomic force microscope. Eftersom möjligheten för en övermänsklig intelligens att konstruera och tillverka tekniska prylar skulle snabbt överträffa det bästa för de mänskliga ingenjörer, en övermänsklig intelligens kan mycket väl vara den sista uppfinning som mänskligheten någonsin behöver göra. På grund av deras övermänskliga genialitet och den teknik som de kan snabbt utveckla de aktioner intelligenser som genomgått en teknisk Singularity kan resultera i antingen utrotning eller befrielsen av hela vår art, beroende på inställning av de mest kraftfulla övermänskliga intelligenser mot människor.

Oxford filosofen Nick Boström, chef för Oxford Future of Humanity Institute och World Transhumanist Organization , hävdar att det sätt övermänskliga intelligenser behandla människor kommer att bero på sin första motiv vid den tidpunkt då de skapades. Ett slags övermänsklig intelligens skulle, fortsatte vill bevara sin vänlighet, avla slag (eller Kinder) versioner av sig själv som hobbyartiklar spiral. Följden kan bli ett paradis där övermänskliga intelligenser lösa världens problem och erbjuda samförståndslösningar intelligens tilläggsprodukt till människor. Å andra sidan skulle en illvillig eller likgiltig övermänsklig intelligens sannolikt att producera mer av samma, vilket resulterar i våra oavsiktlig eller avsiktlig förstörelse. Av dessa skäl kan Teknologisk singularitet vara den enskilt viktigaste milstolpen vår art någonsin kommer möta. p

Flera vägar till övermänsklig intelligens har föreslagit Singularity analytiker och förespråkar. Den första är IA eller Intelligence Amplification med en existerande människa och förvandla henne till en icke-mänskliga tillvaro genom neurokirurgi, hjärna-dator gränssnitt, eller kanske till hjärnan hjärnan gränssnitt. Den andra är AI eller Artificial Intelligence , skapandet av en dynamisk kognitiva system överträffar människor i dess förmåga att bilda teorier och manipulera verkligheten. När någon av dessa tekniker kommer att nå tröskeln till det avancerade behövs för att åstadkomma övermänsklig intelligens är osäkert, men en rad experter, däribland Boström, citera datum inom 2010-2030 intervall som sannolikt.

Eftersom Singularity kan vara närmare än vad många skulle ta, och eftersom de ursprungliga motiven för första övermänsklig intelligens kan avgöra ödet för vår mänskliga arten, någon filosof-aktivister ( "Singularitarians") visa Singularity inte endast som ett ämne för spekulation och diskussion, utan som en praktisk teknik mål som meningsfulla framsteg kan göras för att i nutid. Således grundades 2000 Singularity Institute for Artificial Intelligence som Eliezer Yudkowsky att uteslutande arbeta mot detta mål.


Kommentarer

  • Om oss
  • Reklam
  • Kontakta redaktören
  • Få nyhetsbrev
  • RSS-feed

Redaktör: Beáta Megyesi
Nyheter redaktör: Christiane Schaefer

Kundservice: Mats Schaefer,
Helena Löthman

Tel: +46 00 79 22 00
Fax: +46 00 79 22 01

© Copyright 2014 Debok.net - All rights reserved.