Úgy döntöttem, hogy a heti hírösszefoglalót külön bejegyzésbe száműzöm, amúgy is ez a lényeg, csak kicsit hosszúra nyúlik a fogalmak bevezetése.
Ezen a héten két olyan hír van, amiket meg akarok említeni (lehet, hogy lenne több is, de vészesen közel kerültem a megengedett leütés számhoz az előző bejegyzéssel és most tényleg nem jut több az eszembe). A mostani két hír nem közvetlenül az MI-ről vagy szingularitásról szól, de szerintem mindkettő releváns ilyen szempontból, felhasználási területek nélkül nem sok szükség van az MI-re, nem a chatbotokat gondolom a legfontosabbnak.
Az első, hogy a SpaceX bejelentette a Dragon 2-t. Az űripar és a számítástudomány mindig is nagyon közeli barátnak számított (nem csak HAL miatt), remélem hamarosan rengeteg embert és még több robotot fognak az űrbe szállítani. Az az igazság, hogy a számítástudomány kicsit elhúzott az utóbbi 40 évben, mióta az ember az ISS magasságánál messzebb merészkedett az űrbe, ideje az űriparnak belehúzni, én igazán drukkolok nekik. Az az igazság, egy-két okos robot sokat segíthetne az űr hidegében. Szerencsére a Morpheus is egyre jobban halad, bár a Project M határidejét lekésték, jó lenne Robonautokat vinni a Holdra a következő 1000 napon belül. Kezdhetnék egy kis sepregetéssel, a sok rover előtt. :) (egyébként itt az eredeti videó, nem tudom, miért szednek még le az emberek dolgokat a netről, valaki úgyis tükröz minden valamire való valamit)
A második, hogy a Google már nekifogott saját tervezésű, már kormány nélküli intelligens autókat gyártani, egyelőre csak teszt célra, persze. Ehhez nem kel különösebb kommentár, azt hiszem. :)
szombat, május 31, 2014
a gyenge elefánt a mikrocsipben
Eleddig mind szép és jó volt minden. De hogy lesz igazi MI 2029-re, ha ma még közelében sem járunk? Ez itt az elefánt a szobában, illetve a mikrocsipben, eljött az ideje, hogy ezt a témát nyúzzam egy kicsit.
Nagyon sokféle osztályozása van az MI rendszereknek, az egyik a gyenge (weak) és erős (strong) osztályozás. Ezek szerint azokat az MI-ket nevezzük gyengének, amelyeket egyetlen feladat megoldására hoztak létre, bármilyen jól is teljesítik azt a feladatot, gyengék, mivel nem képesek általános tanulásra. Ezekből nagyon sok van már, jónéhány területen meghaladták már az adott területen legjobban teljesítő embereket is, még sokkal több területen pedig az átlagos embereket és ha extrém körülményeket tekintünk, akkor mégjobb a helyzet, pl. elég kevés ember képes ugyanazt a feladatot 72 órán keresztül elvégezni egyhuzamban, míg MI-k (számítógépek, robotok) néha éveken keresztül végeznek egy feladatot, megállás nélkül. Ez egy nagy fegyvertény, amit általában simán lesöpörnek az emberek, ugyanis gépek ezek, ez a dolguk, de elfelejtik, hogy pl. egy embernek mennyi energiájába kerül kibírni a napi 8 óra monoton munkát, stb. Nemrégiben még csodájára jártunk a japánoknak és kínaiaknak, akik képesek voltak ilyen csodatettekre, ma már "Designed in California, Manufactured in China" és el van intézve.
Az erős MI-k azok, amelyeket nem egy bizonyos feladat megoldására terveztek, hanem általános stratégiákat tartalmaznak amelyekkel bármilyen feladattal (vagy legalábbis a feladatok elég széles körével) kellő felkészülés után képesek kell legyenek megbírkózni. Ilyen MI nem nagyon van még, vagy legalábbis nem mutogatják őket. Elméletben azért már foglalkoznak a kérdéssel, a matematikusok már rég bebizonyították, hogy minden függvény kellően pontosan közelíthető és ezzel el is veszítették az érdeklődésüket a téma iránt, valamint vannak mindenféle kognitív elméletek amelyek az emberi személyiség mindenféle működéseit (többek között a tanulást) hivatottak modellezni. Lehetne sokat fejtegetni, hogy miért nincsenek még ilyen általános MI-k, szerintem egyszerűen azért, mert nem volt rá szükségünk és általában a sok pénzt kiszámítható módszerekere szeretjük költeni. Ha pl. valaki sakkprogramot ír, nem egy embert akar modellezni és reménykedik, hogy ha elkészült vele, akkor képes lesz majd meggyőzni, hogy a sakk érdekelje és ne a középkori Európa divatja, hanem inkább egy matematikailag nagyon jól leírható kombinatorikus optimalizációs feladat heurisztikus megoldási módszereit kutatja.
Akkor jöjjön a nagy fordulat. Szerintem nincs különbség a gyenge és erős MI között, ez egy fals dichotómia. Nem azt akarom mondani, hogy bármilyen szűk feladat megoldása alkalmazható teljesen általános feladatok megoldására, hanem azt, hogy elegendő a részfeladatokat megoldani, a nagy feladat megoldása már csak a részek összeragasztása és szerintem ez nem egy alapvetően más vagy nehezebb feladat mint a részek. Nagyjából ezt látjuk az agyban is egyébként, nincsenek központi vezérlő struktúrák, amelyek végül értelmet adnak az egész katyvasznak, bár az egyes feladatoknak néha jól elkülöníthető helye van (látás, hallás, memória, stb.), elég plasztikus az agy, hogy az egyes részek kiesése esetén más rész vegye át a feladatot és némi bénázás (agyvérzés esetén szó szerint értendő, sajnos) után többé kevésbé visszaállítható a teljes funkció. A matematikusok is ezt mondják, vegyünk jó sok Gauss görbét és bármilyen bonyolult függvényt közelíteni tudunk vele, még a hiszti-függvényt is.
Ma már mindenki általános tanuló módszerekkel fog neki "gyenge" MI-t írni, azért lesz az az MI gyenge, mert esélyt sem adunk neki, hogy beletanuljon az élet nagy dolgaiba, ugyanis nem ezt várjuk el tőle. Valamint rengeteg kísérletezgetéssel és néhány jó meglátással sikerült sok-sok feladathoz néhány olyan kezdő lépést találni, amelyek sokat segítenek azon feladatok megoldásában, de ha hirtelen át szeretnénk állni egy más feladat megoldására, jobb kihagyni őket (lásd pl. gépi látás és hallás lépéseit amíg eljutnak az osztályozóig). Igazából ha most valaki előállna egy teljesen általános MI-vel, fogalmunk se lenne, hogy mit kezdjünk vele (ezért egyébként nem is lehetünk teljesen biztosak benne, hogy már nem állt elő valaki vele, egyrészt a legtöbb módszert ki sem próbálják olyan területeken, amelyek nem szorosan kapcsolódnak az eredeti területhez, amelyre szánták, másrészt meg tényleg nem vagyunk még ott számítási kapacitásban, hogy nagyon kísérletezhetnénk ilyenekkel). A történet még ma is arról szól, hogy izomból próbáljunk minél jobb és jobb módszereket találni szűk feladatokhoz, ezeket lehet publikálni, mert ezeket lehet elég egyszerűen mérni, ezeket lehet használni, mert a legtöbb eszközünknek nagyon jól meghatározott feladata van. Csak mostanában, a mobil forradalommal jutottunk el oda, hogy a telefon esetleg tudhatná azt, hogy hol van a legközelebbi étterem, amiben kutyagumit is felszolgálnak. És ezt akár szóban is megkérdezhetnénk. És ha mindezt már tudja, akkor tudhatná a holnapi időjárást is és akár figyelmeztethetne arra is, hogy kinek van névnapja. Azt még nem bízzuk rá, hogy mit vegyünk neki ajándékba, de eljön az az idő is.
Tekintsük pl. azt a sakkprogramot, ami győzedelmeskedni tudott Kasparov felett. Bizonyára azt sem tudja, hogy a vasárnap után a hétfő következik. Viszont a keresési algoritmusok, amelyeket használt hasznosíthatók bármilyen folyamat tervezési és irányítási feladatban, legyen az repülőjegy foglalás vagy egy hajóra konténer rakodás. A speciális processzorok amiket hozzá fejleszettek direktben befolyásolták a modern szuperskalár architektúrákat. Bár csak egy gyenge MI, nagyon sokat mozdított előre minden téren. Vagy Watson, a Jeopardy győztes MI, valójában csak kb. 100 gyenge MI és az azokat kombináló (egyébként ha jól emlékszem, konvex) függvényt optimalizáló architektúra, ami meg van fejelve még néhány rekurzív lépéssel is. Amiben zseniálisat alkotott az a 40 ember aki 4 év alatt létrehozta az az, hogy elhitték, hogyha jól megcsinálják a részeket, azzal a résszel együtt, ami az egészet összerakja, akkor az egész sokkal több lesz mint a részek összege. A Watsonnak vannak teljesen nem MI-nek tekintett részei is, pl. irodalmi, földrajzi, biológiai stb adatbázisok, amelyek csak egyszerű tényeket tárolnak és keresnek vissza. Persze, felettük van néhány réteg, ami el kell tudja dönteni, hogy pont milyen tényt akarunk visszakeresni, de ezek is csak többé-kevésbé működnek, jól mutatja ezt ugyebár, hogy a hülye szójátékokat meg tudta oldani, de az nem tartotta nagyon fontosnak, hogy amerikai városokról nem igazán Toronto jut eszünkbe (bár van ilyen város az USA-ban, ezt viszont jobban tudta valószínűleg az amerikaiak 99%-ánál). Az is érdekes, hogy teljesen "gyenge" módszertannal dolgoztak, amíg a Watsonon dolgoztak, volt egy precision-recall görbe, ami a legjobb Jeopardy játékosok teljesítményét jellemezte és azt optimalizálták 4 éven keresztül, amig el nem jutottak az ő szintjükre és akkor a feladatot megoldottnak tekintették, mert egyrészt bízhattak abban, hogy gyorsabban meg tudják nyomni a gombot, mint az ember (bár erre is kellet egy gyengécske MI-t írni, ami meg tudta jósolni, hogy mikor fogja befejezni a bemondó a kijelentés felolvasását) és a válaszadás sebességét simán fel tudták skálázni rengeteg hardver felhasználásával (egyébként azóta is ez a legfőbb fejlesztési irány, ledolgozni azt a rengeteg mikrocsipet, amit felszedtek az első megpróbáltatáskor). Ja és írtak egy másik gyengécske MI-t, ami a legjobb Jeopardy stratégiát játszotta. Az eredmény meg valami egészen erősnek tűnő dolog, bár az IBM múzeumban, ahol ki van állítva Watson, verték már meg látogatók rövidebb Jeopardy partikon.
A lényeg az, hogy én nem látom annyira a gyenge/erős dichotómiát. Bár ma még van értelme, főként azért, hogy felhívja a figyelmet arra, hogy kéne az erős MI kutatására is pénzt áldozni. Szerintem az irány teljesen megfelelő, tanuló rendszereket készítenek a feladatok megoldásához, semmi bekódoljuk előre a megoldást. Persze, kell használni néhány trükköt, főként azokat, amelyekről tudjuk, hogy segítenek a módszereken, amiket tanulmányozunk. Persze, most a deep learning forradalom meg már ennek is ellentmond, nem kell már a jó trükk, csak sok adat és sok szint a hálóban. Legalább az egyes szintek tervezésénél még lehet trükközni. Ha majd meglesz a teljes, erős rendszer, lehet majd szórakozni az egyes gyenge részek helyettesítésével, kiiktatásával, áttervezésével, amíg az egész egy nagy homogén katyvasz nem lesz, de legalább közben már lehet az MI előnyeit élvezni, csak csíszolni kell a rendszert.
Remélem ezennel elűztem az elefántot ami itt lebegett az eddigi írásaim körül, legközelebb nem tudom mi lesz, talán ugyanez a téma, hogy hogyan jutunk el az erős MI-hez hamarosan.
Nagyon sokféle osztályozása van az MI rendszereknek, az egyik a gyenge (weak) és erős (strong) osztályozás. Ezek szerint azokat az MI-ket nevezzük gyengének, amelyeket egyetlen feladat megoldására hoztak létre, bármilyen jól is teljesítik azt a feladatot, gyengék, mivel nem képesek általános tanulásra. Ezekből nagyon sok van már, jónéhány területen meghaladták már az adott területen legjobban teljesítő embereket is, még sokkal több területen pedig az átlagos embereket és ha extrém körülményeket tekintünk, akkor mégjobb a helyzet, pl. elég kevés ember képes ugyanazt a feladatot 72 órán keresztül elvégezni egyhuzamban, míg MI-k (számítógépek, robotok) néha éveken keresztül végeznek egy feladatot, megállás nélkül. Ez egy nagy fegyvertény, amit általában simán lesöpörnek az emberek, ugyanis gépek ezek, ez a dolguk, de elfelejtik, hogy pl. egy embernek mennyi energiájába kerül kibírni a napi 8 óra monoton munkát, stb. Nemrégiben még csodájára jártunk a japánoknak és kínaiaknak, akik képesek voltak ilyen csodatettekre, ma már "Designed in California, Manufactured in China" és el van intézve.
Az erős MI-k azok, amelyeket nem egy bizonyos feladat megoldására terveztek, hanem általános stratégiákat tartalmaznak amelyekkel bármilyen feladattal (vagy legalábbis a feladatok elég széles körével) kellő felkészülés után képesek kell legyenek megbírkózni. Ilyen MI nem nagyon van még, vagy legalábbis nem mutogatják őket. Elméletben azért már foglalkoznak a kérdéssel, a matematikusok már rég bebizonyították, hogy minden függvény kellően pontosan közelíthető és ezzel el is veszítették az érdeklődésüket a téma iránt, valamint vannak mindenféle kognitív elméletek amelyek az emberi személyiség mindenféle működéseit (többek között a tanulást) hivatottak modellezni. Lehetne sokat fejtegetni, hogy miért nincsenek még ilyen általános MI-k, szerintem egyszerűen azért, mert nem volt rá szükségünk és általában a sok pénzt kiszámítható módszerekere szeretjük költeni. Ha pl. valaki sakkprogramot ír, nem egy embert akar modellezni és reménykedik, hogy ha elkészült vele, akkor képes lesz majd meggyőzni, hogy a sakk érdekelje és ne a középkori Európa divatja, hanem inkább egy matematikailag nagyon jól leírható kombinatorikus optimalizációs feladat heurisztikus megoldási módszereit kutatja.
Akkor jöjjön a nagy fordulat. Szerintem nincs különbség a gyenge és erős MI között, ez egy fals dichotómia. Nem azt akarom mondani, hogy bármilyen szűk feladat megoldása alkalmazható teljesen általános feladatok megoldására, hanem azt, hogy elegendő a részfeladatokat megoldani, a nagy feladat megoldása már csak a részek összeragasztása és szerintem ez nem egy alapvetően más vagy nehezebb feladat mint a részek. Nagyjából ezt látjuk az agyban is egyébként, nincsenek központi vezérlő struktúrák, amelyek végül értelmet adnak az egész katyvasznak, bár az egyes feladatoknak néha jól elkülöníthető helye van (látás, hallás, memória, stb.), elég plasztikus az agy, hogy az egyes részek kiesése esetén más rész vegye át a feladatot és némi bénázás (agyvérzés esetén szó szerint értendő, sajnos) után többé kevésbé visszaállítható a teljes funkció. A matematikusok is ezt mondják, vegyünk jó sok Gauss görbét és bármilyen bonyolult függvényt közelíteni tudunk vele, még a hiszti-függvényt is.
Ma már mindenki általános tanuló módszerekkel fog neki "gyenge" MI-t írni, azért lesz az az MI gyenge, mert esélyt sem adunk neki, hogy beletanuljon az élet nagy dolgaiba, ugyanis nem ezt várjuk el tőle. Valamint rengeteg kísérletezgetéssel és néhány jó meglátással sikerült sok-sok feladathoz néhány olyan kezdő lépést találni, amelyek sokat segítenek azon feladatok megoldásában, de ha hirtelen át szeretnénk állni egy más feladat megoldására, jobb kihagyni őket (lásd pl. gépi látás és hallás lépéseit amíg eljutnak az osztályozóig). Igazából ha most valaki előállna egy teljesen általános MI-vel, fogalmunk se lenne, hogy mit kezdjünk vele (ezért egyébként nem is lehetünk teljesen biztosak benne, hogy már nem állt elő valaki vele, egyrészt a legtöbb módszert ki sem próbálják olyan területeken, amelyek nem szorosan kapcsolódnak az eredeti területhez, amelyre szánták, másrészt meg tényleg nem vagyunk még ott számítási kapacitásban, hogy nagyon kísérletezhetnénk ilyenekkel). A történet még ma is arról szól, hogy izomból próbáljunk minél jobb és jobb módszereket találni szűk feladatokhoz, ezeket lehet publikálni, mert ezeket lehet elég egyszerűen mérni, ezeket lehet használni, mert a legtöbb eszközünknek nagyon jól meghatározott feladata van. Csak mostanában, a mobil forradalommal jutottunk el oda, hogy a telefon esetleg tudhatná azt, hogy hol van a legközelebbi étterem, amiben kutyagumit is felszolgálnak. És ezt akár szóban is megkérdezhetnénk. És ha mindezt már tudja, akkor tudhatná a holnapi időjárást is és akár figyelmeztethetne arra is, hogy kinek van névnapja. Azt még nem bízzuk rá, hogy mit vegyünk neki ajándékba, de eljön az az idő is.
Tekintsük pl. azt a sakkprogramot, ami győzedelmeskedni tudott Kasparov felett. Bizonyára azt sem tudja, hogy a vasárnap után a hétfő következik. Viszont a keresési algoritmusok, amelyeket használt hasznosíthatók bármilyen folyamat tervezési és irányítási feladatban, legyen az repülőjegy foglalás vagy egy hajóra konténer rakodás. A speciális processzorok amiket hozzá fejleszettek direktben befolyásolták a modern szuperskalár architektúrákat. Bár csak egy gyenge MI, nagyon sokat mozdított előre minden téren. Vagy Watson, a Jeopardy győztes MI, valójában csak kb. 100 gyenge MI és az azokat kombináló (egyébként ha jól emlékszem, konvex) függvényt optimalizáló architektúra, ami meg van fejelve még néhány rekurzív lépéssel is. Amiben zseniálisat alkotott az a 40 ember aki 4 év alatt létrehozta az az, hogy elhitték, hogyha jól megcsinálják a részeket, azzal a résszel együtt, ami az egészet összerakja, akkor az egész sokkal több lesz mint a részek összege. A Watsonnak vannak teljesen nem MI-nek tekintett részei is, pl. irodalmi, földrajzi, biológiai stb adatbázisok, amelyek csak egyszerű tényeket tárolnak és keresnek vissza. Persze, felettük van néhány réteg, ami el kell tudja dönteni, hogy pont milyen tényt akarunk visszakeresni, de ezek is csak többé-kevésbé működnek, jól mutatja ezt ugyebár, hogy a hülye szójátékokat meg tudta oldani, de az nem tartotta nagyon fontosnak, hogy amerikai városokról nem igazán Toronto jut eszünkbe (bár van ilyen város az USA-ban, ezt viszont jobban tudta valószínűleg az amerikaiak 99%-ánál). Az is érdekes, hogy teljesen "gyenge" módszertannal dolgoztak, amíg a Watsonon dolgoztak, volt egy precision-recall görbe, ami a legjobb Jeopardy játékosok teljesítményét jellemezte és azt optimalizálták 4 éven keresztül, amig el nem jutottak az ő szintjükre és akkor a feladatot megoldottnak tekintették, mert egyrészt bízhattak abban, hogy gyorsabban meg tudják nyomni a gombot, mint az ember (bár erre is kellet egy gyengécske MI-t írni, ami meg tudta jósolni, hogy mikor fogja befejezni a bemondó a kijelentés felolvasását) és a válaszadás sebességét simán fel tudták skálázni rengeteg hardver felhasználásával (egyébként azóta is ez a legfőbb fejlesztési irány, ledolgozni azt a rengeteg mikrocsipet, amit felszedtek az első megpróbáltatáskor). Ja és írtak egy másik gyengécske MI-t, ami a legjobb Jeopardy stratégiát játszotta. Az eredmény meg valami egészen erősnek tűnő dolog, bár az IBM múzeumban, ahol ki van állítva Watson, verték már meg látogatók rövidebb Jeopardy partikon.
A lényeg az, hogy én nem látom annyira a gyenge/erős dichotómiát. Bár ma még van értelme, főként azért, hogy felhívja a figyelmet arra, hogy kéne az erős MI kutatására is pénzt áldozni. Szerintem az irány teljesen megfelelő, tanuló rendszereket készítenek a feladatok megoldásához, semmi bekódoljuk előre a megoldást. Persze, kell használni néhány trükköt, főként azokat, amelyekről tudjuk, hogy segítenek a módszereken, amiket tanulmányozunk. Persze, most a deep learning forradalom meg már ennek is ellentmond, nem kell már a jó trükk, csak sok adat és sok szint a hálóban. Legalább az egyes szintek tervezésénél még lehet trükközni. Ha majd meglesz a teljes, erős rendszer, lehet majd szórakozni az egyes gyenge részek helyettesítésével, kiiktatásával, áttervezésével, amíg az egész egy nagy homogén katyvasz nem lesz, de legalább közben már lehet az MI előnyeit élvezni, csak csíszolni kell a rendszert.
Remélem ezennel elűztem az elefántot ami itt lebegett az eddigi írásaim körül, legközelebb nem tudom mi lesz, talán ugyanez a téma, hogy hogyan jutunk el az erős MI-hez hamarosan.
szombat, május 24, 2014
mindenhol
Hol lehet alkalmazni a mesterséges intelligenciát? Mindenhol. Hol érdemes használni a mesterséges intelligenciát? Mindenhol, de valószínűleg nem mindenre, bár ki tudja. Erről írni jó ötletnek tűnt múlt héten, de most inkább az olvasóra bíznám. A lényeg, hogy mindenféle termelési, művészkedési, politizálási, stb. folyamatot meg lehet dobni intelligens módszerekkel. Sok esetében már régóta használnak ilyeneket, csak még statisztikának meg operáció kutatásnak hívják, de azok a mesterséges intelligencia alapjait is képezik, a kapcsolat annyira ágas-bogas, hogy lehet, ekvivalencia van ott valójában.
És ez jó. Mert mindenki, aki egy jobb hal tenyésztési módszert kitalál, lehet, hogy egy jobb malterkeverési módszert is kitalál egyben és lehet, hogy rekurzív neuron hálókban is gyorsabban lehet minimalizálni a hibát a módszerével, ami alá csak egy erős számítógép és egy kisebb facebooknyi adat kell és rögtön kész is az MI. A folyamat persze általában fordított, először a matematikusok vizsgálnak valami fura sorozatot valami fura térben, aztán az informatikusok rájönnek, hogy bizonyos feladatok bizonyos eseteiben nagyon jó stratégiát lehet a matematikusok módszereiből készíteni egy kis randomizálás hozzáadásával, végül a mérnökök az egészet arra használják, hogy optimálisabb kanálformát tervezzenek vele, amiből kevésbé lötyög ki az olvadt vas amivel gyorsítani lehet a szállítását a gyárban ahol műanyag bilik öntéséhez gyártanak gépeket. Mivel sok lépés van a folyamatban (és lehet, hogy a leghosszabb lépés a matematikusok és az informatikusok között van, bár az inkább végtelen, mert mi sörözni szoktunk) ezért egyelőre lassúnak és néha értelmetlennek tűnnik az ilyen módszerek átültetése a valós világba. Viszont az emberek egyre inkább rájönnek, hogy együtt kell működni, az alapmódszerek egyre bíztatóbb eredményeket adnak első kipróbálásra, a verseny egyre élesedik, stb. Szerintem az irány nagyon jó, ami most van és még csak jobb lesz. Vagy fene tudja, lehet csak a vektor hossza fog nőni, az iránya már nem kéne változzon.
És ott van a nem valós világ is, a kibervilág, vagy miafranc. Mivel itt minden virtuális, gyorsan jönnek mennek a technológiák, nem kell gyárakat építeni, csak 2-3 évente új számítógépeket venni és tímbildingre (azaz inni) vinni a görbe hátú programozókat és tesztereket. Most éppen forr nagyon a moslék, mindenki big dataról meg MI-ről beszél. Ez az én kedvenc témám is, de most sajnos nincs kedvem szép új világot jövendőlni. Csak gyorsan két hírt emelnék ki.
Az egyik, hogy a Baidu megvette kilóra Andrew Ng-t, megtették őt az új kaliforniai kutatóközpontjuk vezetőjévé. Lassan minden nagyobb informatikai cégnek lesz saját gépi tanulással foglalkozó kutatócsoportja. Ez jó. Amikor a Facebook Yann LeCun-t tette meg az MI csoportjuk vezetőjének, azt mondtam, hogy már 2027-ben is hajlandó lennék fogadni (egyébként nem kell, azok akikkel fogadni szoktam, 2029-ben sem hisznek), erre az Andrew Ng hírre talán már levihetném a dátumot 2026-ra. Több ilyen kinevezésre viszont nem viszem le a dátumot, előbb tessék virítani az eredményeket, fiúk. :)))
A másik meg az, hogy állítólag az IBM nagy bajban van, csökken a bevétel mint a veszedelem és mire odaérnek a felhő alapú szolgáltatók legjobbjai közé, már lenyomja 0-ra a margint az Amazon meg a Google, amit az IBM nem nagyon szeret. Még szerencse, hogy nyomják keményen a Watsont és orvosi meg banki megrendelőket próbálnak felhajtani. Az amerikai egészségügyi szektorban pedig van margin rendesen, állítólag pazarlásból van csak 500 milliárd. Az eddigi 100 éves történelme alapján az IBM már párszor kimászott a slamasztikából, dejó is lenne, ha most a Watson húzná ki. Melléktermékként meg kapnánk egy MI orvost. :))
És ez jó. Mert mindenki, aki egy jobb hal tenyésztési módszert kitalál, lehet, hogy egy jobb malterkeverési módszert is kitalál egyben és lehet, hogy rekurzív neuron hálókban is gyorsabban lehet minimalizálni a hibát a módszerével, ami alá csak egy erős számítógép és egy kisebb facebooknyi adat kell és rögtön kész is az MI. A folyamat persze általában fordított, először a matematikusok vizsgálnak valami fura sorozatot valami fura térben, aztán az informatikusok rájönnek, hogy bizonyos feladatok bizonyos eseteiben nagyon jó stratégiát lehet a matematikusok módszereiből készíteni egy kis randomizálás hozzáadásával, végül a mérnökök az egészet arra használják, hogy optimálisabb kanálformát tervezzenek vele, amiből kevésbé lötyög ki az olvadt vas amivel gyorsítani lehet a szállítását a gyárban ahol műanyag bilik öntéséhez gyártanak gépeket. Mivel sok lépés van a folyamatban (és lehet, hogy a leghosszabb lépés a matematikusok és az informatikusok között van, bár az inkább végtelen, mert mi sörözni szoktunk) ezért egyelőre lassúnak és néha értelmetlennek tűnnik az ilyen módszerek átültetése a valós világba. Viszont az emberek egyre inkább rájönnek, hogy együtt kell működni, az alapmódszerek egyre bíztatóbb eredményeket adnak első kipróbálásra, a verseny egyre élesedik, stb. Szerintem az irány nagyon jó, ami most van és még csak jobb lesz. Vagy fene tudja, lehet csak a vektor hossza fog nőni, az iránya már nem kéne változzon.
És ott van a nem valós világ is, a kibervilág, vagy miafranc. Mivel itt minden virtuális, gyorsan jönnek mennek a technológiák, nem kell gyárakat építeni, csak 2-3 évente új számítógépeket venni és tímbildingre (azaz inni) vinni a görbe hátú programozókat és tesztereket. Most éppen forr nagyon a moslék, mindenki big dataról meg MI-ről beszél. Ez az én kedvenc témám is, de most sajnos nincs kedvem szép új világot jövendőlni. Csak gyorsan két hírt emelnék ki.
Az egyik, hogy a Baidu megvette kilóra Andrew Ng-t, megtették őt az új kaliforniai kutatóközpontjuk vezetőjévé. Lassan minden nagyobb informatikai cégnek lesz saját gépi tanulással foglalkozó kutatócsoportja. Ez jó. Amikor a Facebook Yann LeCun-t tette meg az MI csoportjuk vezetőjének, azt mondtam, hogy már 2027-ben is hajlandó lennék fogadni (egyébként nem kell, azok akikkel fogadni szoktam, 2029-ben sem hisznek), erre az Andrew Ng hírre talán már levihetném a dátumot 2026-ra. Több ilyen kinevezésre viszont nem viszem le a dátumot, előbb tessék virítani az eredményeket, fiúk. :)))
A másik meg az, hogy állítólag az IBM nagy bajban van, csökken a bevétel mint a veszedelem és mire odaérnek a felhő alapú szolgáltatók legjobbjai közé, már lenyomja 0-ra a margint az Amazon meg a Google, amit az IBM nem nagyon szeret. Még szerencse, hogy nyomják keményen a Watsont és orvosi meg banki megrendelőket próbálnak felhajtani. Az amerikai egészségügyi szektorban pedig van margin rendesen, állítólag pazarlásból van csak 500 milliárd. Az eddigi 100 éves történelme alapján az IBM már párszor kimászott a slamasztikából, dejó is lenne, ha most a Watson húzná ki. Melléktermékként meg kapnánk egy MI orvost. :))
szombat, május 17, 2014
esment szingularitás... mindörökké szingularitás
Akkor vágjunk bele, mi is van ezekkel a fogadásokkal és mi is van ezzel a szingularitással.
Valamikor még régebben elkezdtem fogadni a szingularitásról. Igazából, nem is a szingularitásról, hanem az emberi szintű mesterséges intelligenciáról, de rövidítésképpen szingularitásnak neveztük, pedig ez nem egészen helyénvaló. Mindenki akivel fogadtam informatikus, nagyon sokan közülük egyébként mesterséges intelligenciával foglalkoznak és doktorátusuk is van a témában. És akkor jövök én, aki már nem foglalkozik ezzel és a doktorátusom is csak egy papírlap a fiókban (még nem is a legfontosabb, talán az fontosabb, amiből arra lehet következtetni, hogy ki fogom tudni fizetni azt a sok láda sört, ha véletlenül elveszíteném a fogadást), ép mondatokat sem tudok rendesen írni és fogadgatok itt fűvel-fával a szingularitásról. Aki ismer, az tudja, hogy nem vagyok a hazárdjátékos típus, kártyázni se szoktam, sakkozni még annyira se, a robotos játékot is inkább csak figyelem, hogy Péterke hogyan visz mindent. Lottózni se lottózom (igazából egyszer talán már igen, nem is emlékszem, hogy végül sikerült-e megvenni a szelvényt, vagy már nem lehetett, egy vasárnapi sétát lehetett vele elnyújtani és kevésbé veszélyes a torokra mint a fagyizás). Én a szingularitásra szoktam fogadni.
Viszont ez a szingularitás dolog annyira beépült már a gondolkodásomba, hogy kétséget kizáróan hiszek benne, ezért fogadok ilyen könnyelműen, egyszerűen nem tudom már másképp elképzelni a világot és meglep, hogy mások nem így látják, de szívesen fogadok, mert semmi esélyét nem látom, hogy veszthetnék. Ez a vak hitem lehet, hogy hasonló a vallásos emberek hitéhez, lehetne itt centizni a revelációkat, amelyekre a hiteink alapulnak, egyébként nem szeretném, ha vallásosnak hinnének, ugyanis nem hiszek a vallások által prédikált teremtésmítoszban. Egyébként nem tartom teljesen kizárhatónak az alapszcenáriót, azaz, hogy van valamilyen szuperintelligens lény, akinek a lehetőségei között akár az is szerepel, hogy alkosson egy bolygót, rajta élőlényekkel és még valami fura célja is legyen velük, hogy szeressük őt, vagy valami hasonló, erre már nem is emlékszem pontosan, hogy mi is az Isten célja velünk. És ha meghalunk, akkor nagyon hosszú időn át egy üstben fogunk főni, vagy hetven szűzlány fogja masszírozni a limbikus rendszerünket. De ez a szcenárió semmiben nem befolyásolja azt, hogy mit teszek az életemmel, hány jót vagy rosszat teszek, stb. A limbikus rendszerem eldönti maga, hogy mit akar tenni, ha éppen hagyom. Arra egy picivel még több esélyt látok, hogy mindez csak egy szimuláció, ami ilyen paraméterekkel szimulál egy világot és, hogy mindennek a fizikai valósághoz nincs sok köze, de akkor végezzünk változócserét és nevezzük csak a szimulált szót fizikainak és minden rendben lesz.
A lényeg az, hogy azért fogadok a szingularitásban, mert egy elkerülhetetlen jövőbeli (vég)kifejletnek tartom és a jelen minden egyes molekulája ebbe az irányba mozog.
A szingularitás már egy régebbi fogalom, én a Ray Kurzweil által népszerűsített értelmezésben hiszek. Vannak róla régebben, mélyebben gondolkodó emberek, de egyelőre ebbe ne menjünk bele, elég nagy falat a kurzweili verziónak a magyarázása. Van róla elég jó magyar wikipedia szócikk. Angolul van egy olyan szócikk, amiben a Kurzweil jövendöléseit foglalják össze. Több könyvet is írt, sokat jövendölt, de én elég konzervatívnak találom ezeket, van olyan hely is valahol, ahol mérik, hogy hány jött be és elég jó a találati aránya, szóval nyugodtan hirdetem az igéjét én is, anélkül, hogy a vizet borrá (vagy legalább sörré) változtatta volna előttem.
Szóval alapvetően két évszám a fontos, 2029 és 2045. A "rendes" szingularitás az 2045-re van jósolva, ez nagyjából azt jelenti, hogy ekkor már annyira fejlett lesznek azok a mesterséges intelligenciák, amiket arra használunk, hogy a tudományos kutatást előre vigyük, hogy már okosabbak lesznek mint az emberek akik használják őket, nem lesz szükségük emberekre, hogy elvégezzék a feladatukat és új megoldásokat találjanak régi és új problémákra. Sőt mi több, az emberek már nem is fogják érteni, hogy a mesterséges intelligencia miről beszél, amikor éppen tárgyalja, hogy milyen módszert/bizonyítást/egyebet talált. Én ezt a dátumot nem találom annyira érdekesnek, meg aztán, nagyon messze is van. Persze, ha jól belegondolunk, nagyon sok ponton támadható ez a fejtegetés, először is, bár most úgy tűnik, hogy a tudományos kutatás a "legnehezebb" emberi viselkedésforma, ez még sokat változhat (arról nem is beszélve, hogy egyénileg és csoportosan ezek nagyon eltérnek, pl. az önfeláldozás nagyon nehezen megy egyénileg, kevesebben is csinálják, mint a tudományos kutatást, bár erre a kamikaze pilóták jó ellenpélda). Másrészt, már ma is ilyen-olyan mesterséges intelligenciákkal karöltve végezzük a tudományos kutatást, egyelőre még nagyon behatárolt feladatokat bízunk rájuk, talán mert nem bízunk bennük, talán mert nem vagyunk többre képesek, talán mert már most sem értenénk meg, hogy miért is olyan érdekes az az eredmény, amit kihozott, ha nem az előre bekódolt célfüggvényeket maximalizálja. Mindenesetre ezt nevezzük szingularitásnak és én ezt a szót használtam akkor, amikor arról írtam, hogy fogadtam valakivel, hogy ez bekövetkezik 2029-ben, valószínűleg szóban is ebben fogadtunk. Igazából viszont, nem erre gondoltam és ha utólag nem engedi a fogadási partner változtatni a feltételeket, akkor valószínűleg el fogom veszíteni az első 6 fogadást. Mindenesetre, mivel én 2029-re fogadtam, impliciten a kurzweili predikcióra gondoltam.
2029-ben "csak" az emberi szintű mesterséges intelligencia fog mindenki számára elfogadhatóan manifesztálódni, Kurzweil szerint. Ez a fogalom, "emberi szintű mesterséges intelligencia" elég sok mindent jelenthet, mindenkinek mást, valószínűleg, csak úgy, mint a legtöbb fogalom egyébként. Viszont én bízom benne, hogy mindenki számára elfogadható lesz emberi szintű mesterséges intelligenciának az egyik rendszer a sok közül, ami akkor létezni fog. Ami azt hiszem, a legnagyobb szakadékot képezi köztem és azok között akikkel fogadtam, az az, hogy én kizárólagosan mint eszközre gondolok rá, az emberi szintnek semmi köze nincs az emberekhez. Szóval nem Józsika bácsi szintű, nem nagymama szintű, nem bányász szintű és nem vasutas szintű, hanem egy valami olyan szintű, amit az emberek emberinek fogadnak el. Ma már van olyan mesterséges intelligencia, amely megveri a legjobb sakkozót sakkban, de nem tudja, hogy a víz egy iható dolog és sokban hasonlít a sörhöz. Szóval annak a leendő mesterséges intelligenciának (MI-nek ezután, elkopnak az ujjaim) könnyű lesz a sakkot megtanítani. Azt is könnyű, hogy a sör és a víz hasonló dolgok, mert ezt tényként beépíthetjük. Viszont azt a rengeteg tényt és szabályt amit az emberek tudnak, nehéz lesz beépíteni. Viszont szerintem jó úton haladunk felé.
Szerintem (azt hiszem, Minsky gondolatai befolyásolták legjobban az én gondolataimat ilyen irányban) a nagyon bonyolult (emberi) MI-k sokkal egyszerűbb részekből állnak, mint azt gondolnánk. Ezek külön-külön egyáltalán nem tűnnek intelligensnek egyébként. Az összjátékuk az, ami intelligenssé teszi őket. Szerintem az ember már nagyon jól alkot ilyen alkatrészeket, sok ezer éve gyakorolja az ezközkészítést, az MI csak egy eszköz a sok közül, talán a legáltalánosabb, de az öt körülvevő ezközvilág nélkül egyébként tehetetlen. Egy program soha nem fog beverni egy szeget a falba, de ha egy megfelelő robotot vezényel majd, akkor képes lesz nagyon sokféle szeget nagyon sokféle falba beverni. Szerintem ezek a részek ma már messze meghaladják képességeikben az emberi intelligencia alkotórészeit. Szoftverben és szilikonban sokkal bonyolultabb műveleteket lehet kifejezni, mint amikre az emberi agy képes. Sokkal nagyobb és változatosabb adathalmazból tanulhatnak ezek a rendszerek (a legegyszerűbb példa, hogy az első MI laboron megírt írisz virág osztályozó bizonyára sokkal jobb munkát végez nálam, ha megkapja azt a 4 paramétert, de valószínűleg nem sok munkával a képeket osztályozó rendszert is jobbá lehet tenni annál, amit én képes lennék megtanulni egy másodpercnyi írisznézegetés után) mint az ember és sokkal jobban megbízhatnak a működésükben, mint én az agyamban. Nem fáradnak el és nem akarnak most inkább filmet nézni. Valószínűleg, senkit nem kell nagyon győzködni arról, hogy a számítógép egy jobb architektúra az MI alá, mint amilyen gazdája az emberi intelligenciának az agy. Azért nincs még MI, mert nem próbálkoztunk még eleget a sok kis rendszer összeforrasztásával, még a hardver sincs egészen ott, hogy széles körben lehetővé tegye ezt a kísérletezést, de 2029-re már rég ott lesz, a predikció szerint már 1000-szer gyorsabb lesz egy 1000 dolláros számítógép mint egy emberi agy, erről valószínűleg majd külön bejegyzést fogok írni.
Végül a legjobb. Minden emberi tevékenységet jobbá lehet tenni különböző eszközök használatával és a legáltalánosabb eszköz az MI lesz. Szóval mindenki aki egy kicsit is azon fáradozik, hogy jobban végezze a munkáját, egy kicsit az MI-n is dolgozik, vagy legalábbis helyet teremt az MI módszerek használatának. Persze, a halászok ma még elképzelhetetlennek tartják, hogy hogyan segíthetné őket az MI a munkájukban, akik számítógépes munkát végeznek sem biztos, hogy ilyen keretek között gondolnak a módszerekre, amiket használnak, de mindenki eszközöket használ, amelyek tökéletesítése visszacsatolással rendelkezik a szupereszköz, azaz az MI létrehozásához. Ez az, amiért én teljesen megbízom abban, hogy eljön az MI, csak az időpont a kérdés. Szerintem a 2029 egy jó időpont, elég realisztikus az én szemszögemből, célnak elég inspiráló, akik meg nem hisznek, azoknak jó kis csapda egy láda sör beszerzésére. Ma már nincs olyan hét, amikor ne lenne valami hír MI módszerekkel, eredményekkel, emberekkel kapcsolatban. Ezek lehet, hogy kicsit túloznak, valószínűleg 99%-a nem is releváns, de a gépezet már odaíg ért, hogy hallani a kattogását. És egyre gyorsul.
Rengeteg részlet van még itt, amikkel foglalkozni kéne, szép lassan fogok is, de erre a hétvégére ennyi elég volt. Igazából az előző bekezdés megírása volt a célom ezzel a bejegyzéssel, kicsit hosszúra sikerült a szósz előtte és kifogyott a szufla, szóval legközelebb erről lesz szó egy kicsit részletesebben.
Valamikor még régebben elkezdtem fogadni a szingularitásról. Igazából, nem is a szingularitásról, hanem az emberi szintű mesterséges intelligenciáról, de rövidítésképpen szingularitásnak neveztük, pedig ez nem egészen helyénvaló. Mindenki akivel fogadtam informatikus, nagyon sokan közülük egyébként mesterséges intelligenciával foglalkoznak és doktorátusuk is van a témában. És akkor jövök én, aki már nem foglalkozik ezzel és a doktorátusom is csak egy papírlap a fiókban (még nem is a legfontosabb, talán az fontosabb, amiből arra lehet következtetni, hogy ki fogom tudni fizetni azt a sok láda sört, ha véletlenül elveszíteném a fogadást), ép mondatokat sem tudok rendesen írni és fogadgatok itt fűvel-fával a szingularitásról. Aki ismer, az tudja, hogy nem vagyok a hazárdjátékos típus, kártyázni se szoktam, sakkozni még annyira se, a robotos játékot is inkább csak figyelem, hogy Péterke hogyan visz mindent. Lottózni se lottózom (igazából egyszer talán már igen, nem is emlékszem, hogy végül sikerült-e megvenni a szelvényt, vagy már nem lehetett, egy vasárnapi sétát lehetett vele elnyújtani és kevésbé veszélyes a torokra mint a fagyizás). Én a szingularitásra szoktam fogadni.
Viszont ez a szingularitás dolog annyira beépült már a gondolkodásomba, hogy kétséget kizáróan hiszek benne, ezért fogadok ilyen könnyelműen, egyszerűen nem tudom már másképp elképzelni a világot és meglep, hogy mások nem így látják, de szívesen fogadok, mert semmi esélyét nem látom, hogy veszthetnék. Ez a vak hitem lehet, hogy hasonló a vallásos emberek hitéhez, lehetne itt centizni a revelációkat, amelyekre a hiteink alapulnak, egyébként nem szeretném, ha vallásosnak hinnének, ugyanis nem hiszek a vallások által prédikált teremtésmítoszban. Egyébként nem tartom teljesen kizárhatónak az alapszcenáriót, azaz, hogy van valamilyen szuperintelligens lény, akinek a lehetőségei között akár az is szerepel, hogy alkosson egy bolygót, rajta élőlényekkel és még valami fura célja is legyen velük, hogy szeressük őt, vagy valami hasonló, erre már nem is emlékszem pontosan, hogy mi is az Isten célja velünk. És ha meghalunk, akkor nagyon hosszú időn át egy üstben fogunk főni, vagy hetven szűzlány fogja masszírozni a limbikus rendszerünket. De ez a szcenárió semmiben nem befolyásolja azt, hogy mit teszek az életemmel, hány jót vagy rosszat teszek, stb. A limbikus rendszerem eldönti maga, hogy mit akar tenni, ha éppen hagyom. Arra egy picivel még több esélyt látok, hogy mindez csak egy szimuláció, ami ilyen paraméterekkel szimulál egy világot és, hogy mindennek a fizikai valósághoz nincs sok köze, de akkor végezzünk változócserét és nevezzük csak a szimulált szót fizikainak és minden rendben lesz.
A lényeg az, hogy azért fogadok a szingularitásban, mert egy elkerülhetetlen jövőbeli (vég)kifejletnek tartom és a jelen minden egyes molekulája ebbe az irányba mozog.
A szingularitás már egy régebbi fogalom, én a Ray Kurzweil által népszerűsített értelmezésben hiszek. Vannak róla régebben, mélyebben gondolkodó emberek, de egyelőre ebbe ne menjünk bele, elég nagy falat a kurzweili verziónak a magyarázása. Van róla elég jó magyar wikipedia szócikk. Angolul van egy olyan szócikk, amiben a Kurzweil jövendöléseit foglalják össze. Több könyvet is írt, sokat jövendölt, de én elég konzervatívnak találom ezeket, van olyan hely is valahol, ahol mérik, hogy hány jött be és elég jó a találati aránya, szóval nyugodtan hirdetem az igéjét én is, anélkül, hogy a vizet borrá (vagy legalább sörré) változtatta volna előttem.
Szóval alapvetően két évszám a fontos, 2029 és 2045. A "rendes" szingularitás az 2045-re van jósolva, ez nagyjából azt jelenti, hogy ekkor már annyira fejlett lesznek azok a mesterséges intelligenciák, amiket arra használunk, hogy a tudományos kutatást előre vigyük, hogy már okosabbak lesznek mint az emberek akik használják őket, nem lesz szükségük emberekre, hogy elvégezzék a feladatukat és új megoldásokat találjanak régi és új problémákra. Sőt mi több, az emberek már nem is fogják érteni, hogy a mesterséges intelligencia miről beszél, amikor éppen tárgyalja, hogy milyen módszert/bizonyítást/egyebet talált. Én ezt a dátumot nem találom annyira érdekesnek, meg aztán, nagyon messze is van. Persze, ha jól belegondolunk, nagyon sok ponton támadható ez a fejtegetés, először is, bár most úgy tűnik, hogy a tudományos kutatás a "legnehezebb" emberi viselkedésforma, ez még sokat változhat (arról nem is beszélve, hogy egyénileg és csoportosan ezek nagyon eltérnek, pl. az önfeláldozás nagyon nehezen megy egyénileg, kevesebben is csinálják, mint a tudományos kutatást, bár erre a kamikaze pilóták jó ellenpélda). Másrészt, már ma is ilyen-olyan mesterséges intelligenciákkal karöltve végezzük a tudományos kutatást, egyelőre még nagyon behatárolt feladatokat bízunk rájuk, talán mert nem bízunk bennük, talán mert nem vagyunk többre képesek, talán mert már most sem értenénk meg, hogy miért is olyan érdekes az az eredmény, amit kihozott, ha nem az előre bekódolt célfüggvényeket maximalizálja. Mindenesetre ezt nevezzük szingularitásnak és én ezt a szót használtam akkor, amikor arról írtam, hogy fogadtam valakivel, hogy ez bekövetkezik 2029-ben, valószínűleg szóban is ebben fogadtunk. Igazából viszont, nem erre gondoltam és ha utólag nem engedi a fogadási partner változtatni a feltételeket, akkor valószínűleg el fogom veszíteni az első 6 fogadást. Mindenesetre, mivel én 2029-re fogadtam, impliciten a kurzweili predikcióra gondoltam.
2029-ben "csak" az emberi szintű mesterséges intelligencia fog mindenki számára elfogadhatóan manifesztálódni, Kurzweil szerint. Ez a fogalom, "emberi szintű mesterséges intelligencia" elég sok mindent jelenthet, mindenkinek mást, valószínűleg, csak úgy, mint a legtöbb fogalom egyébként. Viszont én bízom benne, hogy mindenki számára elfogadható lesz emberi szintű mesterséges intelligenciának az egyik rendszer a sok közül, ami akkor létezni fog. Ami azt hiszem, a legnagyobb szakadékot képezi köztem és azok között akikkel fogadtam, az az, hogy én kizárólagosan mint eszközre gondolok rá, az emberi szintnek semmi köze nincs az emberekhez. Szóval nem Józsika bácsi szintű, nem nagymama szintű, nem bányász szintű és nem vasutas szintű, hanem egy valami olyan szintű, amit az emberek emberinek fogadnak el. Ma már van olyan mesterséges intelligencia, amely megveri a legjobb sakkozót sakkban, de nem tudja, hogy a víz egy iható dolog és sokban hasonlít a sörhöz. Szóval annak a leendő mesterséges intelligenciának (MI-nek ezután, elkopnak az ujjaim) könnyű lesz a sakkot megtanítani. Azt is könnyű, hogy a sör és a víz hasonló dolgok, mert ezt tényként beépíthetjük. Viszont azt a rengeteg tényt és szabályt amit az emberek tudnak, nehéz lesz beépíteni. Viszont szerintem jó úton haladunk felé.
Szerintem (azt hiszem, Minsky gondolatai befolyásolták legjobban az én gondolataimat ilyen irányban) a nagyon bonyolult (emberi) MI-k sokkal egyszerűbb részekből állnak, mint azt gondolnánk. Ezek külön-külön egyáltalán nem tűnnek intelligensnek egyébként. Az összjátékuk az, ami intelligenssé teszi őket. Szerintem az ember már nagyon jól alkot ilyen alkatrészeket, sok ezer éve gyakorolja az ezközkészítést, az MI csak egy eszköz a sok közül, talán a legáltalánosabb, de az öt körülvevő ezközvilág nélkül egyébként tehetetlen. Egy program soha nem fog beverni egy szeget a falba, de ha egy megfelelő robotot vezényel majd, akkor képes lesz nagyon sokféle szeget nagyon sokféle falba beverni. Szerintem ezek a részek ma már messze meghaladják képességeikben az emberi intelligencia alkotórészeit. Szoftverben és szilikonban sokkal bonyolultabb műveleteket lehet kifejezni, mint amikre az emberi agy képes. Sokkal nagyobb és változatosabb adathalmazból tanulhatnak ezek a rendszerek (a legegyszerűbb példa, hogy az első MI laboron megírt írisz virág osztályozó bizonyára sokkal jobb munkát végez nálam, ha megkapja azt a 4 paramétert, de valószínűleg nem sok munkával a képeket osztályozó rendszert is jobbá lehet tenni annál, amit én képes lennék megtanulni egy másodpercnyi írisznézegetés után) mint az ember és sokkal jobban megbízhatnak a működésükben, mint én az agyamban. Nem fáradnak el és nem akarnak most inkább filmet nézni. Valószínűleg, senkit nem kell nagyon győzködni arról, hogy a számítógép egy jobb architektúra az MI alá, mint amilyen gazdája az emberi intelligenciának az agy. Azért nincs még MI, mert nem próbálkoztunk még eleget a sok kis rendszer összeforrasztásával, még a hardver sincs egészen ott, hogy széles körben lehetővé tegye ezt a kísérletezést, de 2029-re már rég ott lesz, a predikció szerint már 1000-szer gyorsabb lesz egy 1000 dolláros számítógép mint egy emberi agy, erről valószínűleg majd külön bejegyzést fogok írni.
Végül a legjobb. Minden emberi tevékenységet jobbá lehet tenni különböző eszközök használatával és a legáltalánosabb eszköz az MI lesz. Szóval mindenki aki egy kicsit is azon fáradozik, hogy jobban végezze a munkáját, egy kicsit az MI-n is dolgozik, vagy legalábbis helyet teremt az MI módszerek használatának. Persze, a halászok ma még elképzelhetetlennek tartják, hogy hogyan segíthetné őket az MI a munkájukban, akik számítógépes munkát végeznek sem biztos, hogy ilyen keretek között gondolnak a módszerekre, amiket használnak, de mindenki eszközöket használ, amelyek tökéletesítése visszacsatolással rendelkezik a szupereszköz, azaz az MI létrehozásához. Ez az, amiért én teljesen megbízom abban, hogy eljön az MI, csak az időpont a kérdés. Szerintem a 2029 egy jó időpont, elég realisztikus az én szemszögemből, célnak elég inspiráló, akik meg nem hisznek, azoknak jó kis csapda egy láda sör beszerzésére. Ma már nincs olyan hét, amikor ne lenne valami hír MI módszerekkel, eredményekkel, emberekkel kapcsolatban. Ezek lehet, hogy kicsit túloznak, valószínűleg 99%-a nem is releváns, de a gépezet már odaíg ért, hogy hallani a kattogását. És egyre gyorsul.
Rengeteg részlet van még itt, amikkel foglalkozni kéne, szép lassan fogok is, de erre a hétvégére ennyi elég volt. Igazából az előző bekezdés megírása volt a célom ezzel a bejegyzéssel, kicsit hosszúra sikerült a szósz előtte és kifogyott a szufla, szóval legközelebb erről lesz szó egy kicsit részletesebben.
csütörtök, május 15, 2014
wow
végre a siggraphosok is elkezdték feltenni az előadásokat a jótúbra. egyelőre még nem mindent, de előbb-utóbb minden felkerül majd, reméljük.
ha már jótúb, hát lehet nézni a euronewst magyarul, ez is nagyon rulez.
meg a Földet, élőben, ha éppen nem szürke a stream. egy jó nagy tévén egy kis jó zenével isteni élmény.
ha már euróvízió, meg oroszok, akkor tatu és 2003 és véletlenül megint megtaláltam az én kedvenc euróvíziós dalomat (talán csak a waterloo jobb nála).
ha már jótúb, hát lehet nézni a euronewst magyarul, ez is nagyon rulez.
meg a Földet, élőben, ha éppen nem szürke a stream. egy jó nagy tévén egy kis jó zenével isteni élmény.
ha már euróvízió, meg oroszok, akkor tatu és 2003 és véletlenül megint megtaláltam az én kedvenc euróvíziós dalomat (talán csak a waterloo jobb nála).
hétfő, május 12, 2014
vasárnap, május 11, 2014
tennap
Tegnap este söröztünk a régi haverokkal, két újabb fogadást kötöttem, mondjuk ezek már nagyon időszerűek voltak, tekintve, hogy ugyanezekkel az emberekkel szoktam megvitatni ezeket a szingularitásos dolgokat. Szóval most Áfra Attila és Bodó Zalán hívta ki a sorsot maga ellen. :)) Ezzel már 9 láda sör fog gazdát cserélni 2029-ben, remélem, én az érkezési oldalon állok majd. :)))
Egyébként egy kicsit elkedvetlenedtem a szingularitás követés blogolásával kapcsolatban, elvégre én nem csinálom ezeket a dolgokat, csak írok róluk, de még sokan írnak, szóval nincs nagy értelme nekem is írnom. Végül mégis úgy döntöttem, talán olyanok, akik nem nagyon jártasak a témában, tangenciálisan érdekli őket, de nem annyira, hogy komolyabban utána nézzenek, talán érdekesnek találhatják ezeket a bejegyzéseket, szóval mégis folytatom még egy ideig. Az is baj, hogy szeretnék kicsit jobban informált bejegyzéseket írni, mint amit egy rövidke hír továbbadásából lehet produkálni, de túl lusta vagyok komolyabban utánajárni dolgoknak.
Áprilisban 2 cikkről írtak, nem sokkal egymás után, amelyeket relevánsnak éreztem.Mindkettő letölthető. Az első, open access folyóíratban jelent meg és azt boncolgatja, hogy milyen pályát járhat be a neuromorfikus áramkörök fejlődése, kiindulva abból, hogy a hagyományos processzorok technológiája használható az elkészítésükre, de egyelőre, mivel még nem használják őket elterjedt körök, rendesen le vannak maradva a csúcstechnológiától. A lényeg, hogy ezek a csipek jobban tudják majd emulálni az agyat, mint a hagyományos processzor architektúrák, de még 10 nm-s csíkvastagságnál is nagyon sok kell majd belőlük, de lényegesen kevesebb, mint hagyományos processzorból. Az az igazság, hogy szenvedtem egy kicsit ezzel a cikkel, lehet, hogy velem van a baj, de nagyon nem találtam jól olvashatónak, néhol úgy tűnt, mintha osszeollózták volna, de nem nagyon figyeltek oda, hogy a mondatok alanya ne változzon a bekezdésen belül. Szóval nem egészen tiszta számomra, hogy mi is volt a mondanivaló, de azt azért jó tudni, hogy egyesek nagyon komolyan foglalkoznak a neuromorfikus csipekkel, ami kétségtelenül egy érdekes irány, szerintem nem lesz rá szükség az emberi szintű mesterséges intelligencia megalkotásához, de lehet próbálkozni vele, mert elég plauzibilis iránynak tűnik.
A második (cold link) egy stanfordi rendszerről számol be, ami 1 millió neuront tud szimulálni már. Egyelőre 40 ezer dollárba kerül, de ha tömegesen lehetne termelni, akkor csak 400-ba kerülne. Ennél az agy 100 ezerszer bonyolultabb, szóval még egy kicsit sokba kerülne, de az irány mindenképpen bíztató, ráadásul mintha 450 nm-s technológiával készült, most meg a 20 nm a menő. Ennek a cikknek az olvasását hamar feladtam, a fizikai részletek már nem nagyon érdekeltek.
Szép dolgok ezek a neuromorfikus csipek, szép dolgok a neuronok, de szerintem nincs sok közük igazából az intelligenciához. Az igaz, hogy egyelőre ezt az egy megvalósulását ismerjük az általunk magasabb szintűnek tartott intelligenciának, de szerintem óriási széles az intelligencia spektruma és ez csak egy csepp a tengerben. A mesterséges intelligenciák létrehozza kétség kívűl kitágítja majd a lehetőségeinket a tenger felfedezésében, de van egy olyan érzésem, hogy még így is csak egy kis tavacskányit ismerünk meg, aztán majd jönnek szép sorban az idegen intelligenciák és ámulni fogunk rendesen. :)))) Szóval azt azért nem elfelejteni, hogy a szuper agyunknak szinte teljesen megoldhatatlan feladat két 10 jegyű számjegy összeszorzása segédeszközök (papír, ceruza) nélkül (én már 5 jegyűeknél feladtam, amikor elvégeztem ezt a kísérletet). Persze, segédezközökkel már elég messze juthatunk, de azért mégsem olyan mindenható architektúra az az agy.
Most ennyi. Megint nincs kedvem részletezni azt, hogy miért vagyok ennyire meggyőződve ezekben a dolgokban, meg, hogy miért bízom benne, hogy végül mégis minden jóra fordul, de majd apránként talán.
Egyébként egy kicsit elkedvetlenedtem a szingularitás követés blogolásával kapcsolatban, elvégre én nem csinálom ezeket a dolgokat, csak írok róluk, de még sokan írnak, szóval nincs nagy értelme nekem is írnom. Végül mégis úgy döntöttem, talán olyanok, akik nem nagyon jártasak a témában, tangenciálisan érdekli őket, de nem annyira, hogy komolyabban utána nézzenek, talán érdekesnek találhatják ezeket a bejegyzéseket, szóval mégis folytatom még egy ideig. Az is baj, hogy szeretnék kicsit jobban informált bejegyzéseket írni, mint amit egy rövidke hír továbbadásából lehet produkálni, de túl lusta vagyok komolyabban utánajárni dolgoknak.
Áprilisban 2 cikkről írtak, nem sokkal egymás után, amelyeket relevánsnak éreztem.Mindkettő letölthető. Az első, open access folyóíratban jelent meg és azt boncolgatja, hogy milyen pályát járhat be a neuromorfikus áramkörök fejlődése, kiindulva abból, hogy a hagyományos processzorok technológiája használható az elkészítésükre, de egyelőre, mivel még nem használják őket elterjedt körök, rendesen le vannak maradva a csúcstechnológiától. A lényeg, hogy ezek a csipek jobban tudják majd emulálni az agyat, mint a hagyományos processzor architektúrák, de még 10 nm-s csíkvastagságnál is nagyon sok kell majd belőlük, de lényegesen kevesebb, mint hagyományos processzorból. Az az igazság, hogy szenvedtem egy kicsit ezzel a cikkel, lehet, hogy velem van a baj, de nagyon nem találtam jól olvashatónak, néhol úgy tűnt, mintha osszeollózták volna, de nem nagyon figyeltek oda, hogy a mondatok alanya ne változzon a bekezdésen belül. Szóval nem egészen tiszta számomra, hogy mi is volt a mondanivaló, de azt azért jó tudni, hogy egyesek nagyon komolyan foglalkoznak a neuromorfikus csipekkel, ami kétségtelenül egy érdekes irány, szerintem nem lesz rá szükség az emberi szintű mesterséges intelligencia megalkotásához, de lehet próbálkozni vele, mert elég plauzibilis iránynak tűnik.
A második (cold link) egy stanfordi rendszerről számol be, ami 1 millió neuront tud szimulálni már. Egyelőre 40 ezer dollárba kerül, de ha tömegesen lehetne termelni, akkor csak 400-ba kerülne. Ennél az agy 100 ezerszer bonyolultabb, szóval még egy kicsit sokba kerülne, de az irány mindenképpen bíztató, ráadásul mintha 450 nm-s technológiával készült, most meg a 20 nm a menő. Ennek a cikknek az olvasását hamar feladtam, a fizikai részletek már nem nagyon érdekeltek.
Szép dolgok ezek a neuromorfikus csipek, szép dolgok a neuronok, de szerintem nincs sok közük igazából az intelligenciához. Az igaz, hogy egyelőre ezt az egy megvalósulását ismerjük az általunk magasabb szintűnek tartott intelligenciának, de szerintem óriási széles az intelligencia spektruma és ez csak egy csepp a tengerben. A mesterséges intelligenciák létrehozza kétség kívűl kitágítja majd a lehetőségeinket a tenger felfedezésében, de van egy olyan érzésem, hogy még így is csak egy kis tavacskányit ismerünk meg, aztán majd jönnek szép sorban az idegen intelligenciák és ámulni fogunk rendesen. :)))) Szóval azt azért nem elfelejteni, hogy a szuper agyunknak szinte teljesen megoldhatatlan feladat két 10 jegyű számjegy összeszorzása segédeszközök (papír, ceruza) nélkül (én már 5 jegyűeknél feladtam, amikor elvégeztem ezt a kísérletet). Persze, segédezközökkel már elég messze juthatunk, de azért mégsem olyan mindenható architektúra az az agy.
Most ennyi. Megint nincs kedvem részletezni azt, hogy miért vagyok ennyire meggyőződve ezekben a dolgokban, meg, hogy miért bízom benne, hogy végül mégis minden jóra fordul, de majd apránként talán.
Feliratkozás:
Bejegyzések (Atom)