Eliezer Shlomo Yudkovsky er en amerikansk spesialist i kunstig intelligens, som studerer problemene med teknologisk singularitet og tar til orde for etableringen av Friendly AI. Han er forfatter av flere science fiction-historier der han illustrerer noen emner relatert til kognitiv vitenskap og rasjonalitet.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: biografi
Eliezer Shlomo Yudkovsky er en av de mest aktive rasjonalistene i det moderne Amerika, en dataforsker og populariserer ideen om "vennlig kunstig intelligens."
Født 11. september 1979. Medgründer og forsker ved den ikke-statlige forskningsorganisasjonen Institute for Research on Machine Intelligence, som gir ut bøkene hans. Eliezer Yudkovsky er forfatteren av den filosofiske romanen Harry Potter and the Methods of Rationalism, som ble publisert i deler på Internett mellom 2010 og 2015. I den vokser Harry opp i familien til en Oxford-forsker, og lærer av ham metodene for rasjonell tenkning, før han reiser til Hogwarts.
Så vidt kjent har det ingen tilknytning til kretsen av "spekulative realister". Navnet hans blir ofte nevnt i forbindelse med Robin Hanson, i flere år (fra 2006 til 2009) var de de to hovedforfatterne av bloggen "Overcoming the Prejudice", som eksisterte på pengene til Institute for Future Humanity i Oxford.
Noen ganger kan navnet Yudkovsky høres i forbindelse med Raymond Kurzweil. Han er en filosoferende representant for fellesskapet av techno-geeks, utilgjengelig og uforståelig, og dermed for det meste av den humanitære offentligheten, som nesten alle lesere av spekulative realister tilhører. Det er ikke overraskende, fordi han ofte vender seg til det logiske og matematiske språket, sannsynlige og statistiske konklusjoner, utsatt ved bruk av formler og tabeller.
Vitenskapelige interesser
Yudkovsky er medgründer og forsker ved Singularity Institute for Artificial Intelligence Institute (SIAI). Han ga et stort bidrag til utviklingen av instituttet. Han er forfatteren av boken "Creating Friendly AI" (2001), artiklene "Levels of Organization in General Intelligence" (2002), "Coherent Extrapolated Volition" ("Coherent Extrapolated Volition", 2004) og The Timeless Decision Theory (2010). Hans siste vitenskapelige publikasjoner er to artikler i samlingen “Risks of a global catastrophe” (2008) redigert av Nick Bostrom, nemlig “Artificial Intelligence as a Positive and Negative Global Risk Factor” og “Cognitive Distortion in Assessing Global Risks”. Yudkovsky studerte ikke ved universiteter og er en autodidakt uten formell utdanning innen AI.
Yudkovsky utforsker AI-design som er i stand til selvforståelse, selvmodifisering og rekursiv selvforbedring (Seed AI), samt AI-arkitekturer som vil ha en stabil og positiv motivasjonsstruktur (Friendly Artificial Intelligence). I tillegg til forskningsarbeidet sitt, er Yudkovsky kjent for sine forklaringer av komplekse modeller på et ikke-akademisk språk, tilgjengelig for en bred krets av lesere, se for eksempel artikkelen hans "En intuitiv forklaring av Bayes teorem".
Yudkovsky var sammen med Robin Hanson en av hovedforfatterne av bloggen Overvinne bias (overvinne fordommer). Tidlig i 2009 deltok han i organisasjonen av bloggen Less Wrong, med sikte på å "utvikle menneskelig rasjonalitet og overvinne kognitive forvrengninger." Etter det ble Overcoming Bias Hansons personlige blogg. Materialet som ble presentert på disse bloggene var organisert som kjeder av innlegg som trakk tusenvis av lesere - se for eksempel underholdningsteorikjeden.
Yudkovsky er forfatter av flere science fiction-historier der han illustrerer noen emner relatert til kognitiv vitenskap og rasjonalitet.
karriere
- 2000. Yudkovsky grunnla Singularity Institute (senere omdøpt til MIRI).
- 2006. Yudkovsky slutter seg til kollektivbloggen Overcoming Bias og begynner å skrive tekster som senere ble Chains.
- 2009. Basert på Yudkovskys oppføringer om Overvinne skjevhet, blir den berømte kollektivbloggen LessWrong.com opprettet.
- 2010-2015. Yudkovsky skriver GPiMRM.
- 2013. Yudkovsky publiserer de siste innleggene på LessWrong.com og slutter å skrive på nettstedet. Fra 2017 publiserer Yudkovsky de fleste av de offentlig tilgjengelige tekstene på Facebook og Arbital
Tenkte eksperiment
Se for deg en utrolig smart kunstig superintelligens innelåst i en virtuell verden - si bare i en snusboks. Du vet ikke om han vil være slem, vennlig eller nøytral. Alt du vet er at han ønsker å komme seg ut av boksen, og at du kan samhandle med ham gjennom et tekstgrensesnitt. Hvis AI virkelig er superintelligent, kan du snakke med ham i fem timer og ikke bukke under for hans overtalelse og manipulasjon - ikke å åpne snusboksen?
Dette tankeeksperimentet ble foreslått av Eliezer Yudkowsky, en stipendiat ved Engineering Research Institute of Engineering (MIRI). MIRI har mange forskere som undersøker risikoen for å utvikle kunstig superintelligens; selv om den ikke en gang har dukket opp ennå, tiltrekker den allerede oppmerksomhet og fremmer en debatt.
Yudkovsky argumenterer for at kunstig superintelligens kan si alt den kan for å overbevise deg: nøye resonnementer, trusler, bedrag, bygge rapport, underbevisst forslag og så videre. Med lysets hastighet bygger AI et plott, sonderer svakheter og bestemmer hvordan det er lettest å overbevise deg. Som den eksistensielle trusselsteoretikeren Nick Bostrom uttrykte det, "vi må tro at superintelligens kan oppnå alt det setter som sitt mål."
AI-eksperimentet med snuffbox setter tvil om vår evne til å kontrollere hva vi kunne lage. Det får oss også til å forstå de ganske bisarre mulighetene for det vi ikke vet om vår egen virkelighet.