Vad är Solomonoff Induction?

Solomonoff induktion är ett matematiskt strikt, idealiserad form av induktion, det vill säga att förutse vad som kommer hända i framtiden, baserat på tidigare erfarenheter. Det är en del av algoritmiska uppgifter teori. Denna induktion system teoretiskt optimala, dvs får tillräckligt med data, kommer det alltid att kunna tilldela sannolikheter till framtida händelser med största möjliga noggrannhet tillåtna. Det enda problemet med Solomonoff induktion är att det är OTALIG, det vill säga, skulle det kräva en dator med oändlig processorkraft att köra. Men som alla framgångsrika induktiva system och maskiner-inklusive djur och människor-är approximationer av Solomonoff induktion. Varje verbala argument som innehåller råd för bättre induktion, i den mån det faktiskt fungerar, fungerar genom att lirka lyssnaren till att ändra sitt induktiv strategi på ett sådant sätt att det bättre approximerar Solomonoff induktion. Tanken att induktion kan matematiskt formaliseras på detta sätt är ganska djup, och många generationer av tänkare och filosofer sa att det inte kunde göras. Solomonoff induktion växte fram ur arbetet av Ray Solomonoff, Andrej Kolmolgorov, och Gregory Chaitin på 1960-talet. Deras bakomliggande motiv var att formalisera sannolikhetslära och induktion med axiom, på samma sätt som algebra och geometri har formaliserat. Solomonoff induktion bygger på en induktiv regel kallas Bayes sats, som beskriver en exakt matematisk sätt att uppdatera övertygelse baserad på inkommande data. En svaghet i Bayes sats är att det beror på en tidigare Sannolikheten för en viss händelse. Exempelvis kan sannolikheten för en asteroid som påverkar jorden under de närmaste 10 åren ges på grundval av historiska data om asteroider effekter. Men när stickprovsstorlek på tidigare händelser är låga, såsom antalet gånger en neutriner har påvisats i en neutrino fälla, blir det mycket svårt att förutsäga sannolikheten för att händelsen upprepas enbart grundar sig på tidigare erfarenheter.

Här Solomonoff induktion kommer in Använda ett objektivt mått på komplexiteten kallas Kolmogorov komplexitet, kan Solomonoff induktion göra en kvalificerad gissning om sannolikheten av någon framtida händelse inträffar. Kolmogorov komplexitet bygger på en princip som kallas Minimum Description Length (MDL), som utvärderar komplexiteten hos ett pärlband av bitar baserade på kortast algoritm som kan mata ut den strängen. Även Kolmogorov komplexitet ursprungligen tillämpats på bitstrings bara, kan den översättas för att beskriva komplexa händelser och objekt.

Solomonoff induktion integrerar Kolmogorov komplexiteten i Bayesianska resonemang, ger oss skäl priorerna för händelser som kanske aldrig ens har hänt . Den före sannolikheten för en godtycklig händelse bedöms baseras på den totala komplexitet och specificitet. Till exempel är sannolikheten att två slumpmässigt regndroppar i en storm drabbar samma kvadratmeter relativt låg, men mycket högre än sannolikheten för tio eller hundra slumpmässigt regndroppar fixar det kvadratmeter.

Några forskare har studerat Solomonoff induktion i samband med Neuroanatomi, visar hur optimal induktion är en organiserande princip i utvecklingen av djur som behöver korrekt induktion för överlevnad. När sanna Artificiell intelligens skapas, kommer de principer Solomonoff induktion vara en trolig inspirationskälla underliggande dess konstruktion.


Kommentarer

  • Om oss
  • Reklam
  • Kontakta redaktören
  • Få nyhetsbrev
  • RSS-feed

Redaktör: Beáta Megyesi
Nyheter redaktör: Christiane Schaefer

Kundservice: Mats Schaefer,
Helena Löthman

Tel: +46 00 79 22 00
Fax: +46 00 79 22 01

© Copyright 2014 Debok.net - All rights reserved.