
Dirbtinis intelektas
Bet tai yra problema, nes žmones tai mokytis skatina jų noras išlikti. O DI kas skatina arba skatintų mokytis?

O jo nereikia skatinti, tiesiog įjungi, duoti gausybę inputo, nurodai siektiną rezultatą, automatinį feedbacką, paleidi ir mokosi. Ar tu manai, Alpha Go buvo kaip nors skatinamas patapšnojimais per virtualų petį ir saldainiu?O DI kas skatina arba skatintų mokytis?

Vis tiek turi užprogramuoti DI, kad jis siektų to rezultato. Nes jei nurodysi tik siektiną rezultatą, tai net primityvus kompiuteris nesieks to rezultato, jei nebus atitinkamos komandos - siek to nurodyto rezultato. Ar Tamsta galvoja, kad DI automatiškai taip elgsis, kaip, pvz., koks nors šuo, kuris nori įtikti savo šeimininkui, ir dėl to noro įtikti mokosi tinkamai reaguoti šeimininko komandas?

- supainiotos dvi atskiros problemos: a) išmokyti vaiką to, ką visuomenė moka. b) išmokti vaikui pačiam, kaip Maugliui, nors atsimenu Mauglį mokė mokytas lokys.
p.s.
.. turbūt nereik priminti, kad pradinis DI kodas yra įdėtas žmogaus, šiuo met DI mokomas mokintis to, kas žinoma. Visai kito lygio ir apimties problemos yra "mokytis kas nežinoma"!

Kalbant apie tikslo AI suprogramavimą. Kaip tu, fizikanai, techniškai įsivaizduoji šitą dalyką? Pvz. žmonių atveju, būčiau linkęs teigti, jog savotiškas tikslo funkcijas atlieka mūsų emocijos ar kitos natūralios instinktyvios reakcijos (pvz. alkio jausmas). O kaip šitoj vietoj, tavo galva, su tikslais būtų AI atveju?fizikanas wrote: ↑2017-07-29 15:01Atskirai programuoti nereikes. Sakykime DI turi vieninteli tiksla - pagaminti kuo daugiau kopeciu. Kadangi yra intelektualus, jis supras, kad jei jis pats neegzistuos, tai kopeciu nepagamins, todel islikimo "instinktas" atsiras savaime, kaip sub-tikslas is kopeciu gaminimo tikslo.
Aš manau AI kai/jei bus sukurtas, bus žymiai tobulesnis už natūralų intelektą dauguma aspektų. Kaip ir viskas, kas sukurta mokslininkų/inžinierių iš pradžių gerai apgalvojus ir suplanavus, būna tobulesni už natūralios atrankos būdu išsivysčiusį crap'ą. Ir viena to tobulumo išraiškų bus šitų visų „motyvacijų“ pranykimas. Užduoto tikslo siekimas bus savaime motyvacija, gyvenimo prasmė, tikslas ir visa kita viename. Iš principo nematau kodėl AI reikėtų kartu pridėti visus tuos papildomus žingsnius, kaip kad alkio, pavydo, skausmo ir kiti kvaili pojūčiai. Tačiau siekdamas užduoto tikslo AI turės atsižvelgti ir į papildomus apribojimus / šalutinius tikslus, kaip kad kokios priemonės yra adekvačios kokios ne, kokios priemonės yra net kontraproduktyvios, kada tikslas de facto pasiektas ir tolimesnis užduoties vykdymas būtų žalingas ir panašiai.Svetimas wrote: ↑2019-01-20 15:00Kalbant apie tikslo AI suprogramavimą. Kaip tu, fizikanai, techniškai įsivaizduoji šitą dalyką? Pvz. žmonių atveju, būčiau linkęs teigti, jog savotiškas tikslo funkcijas atlieka mūsų emocijos ar kitos natūralios instinktyvios reakcijos (pvz. alkio jausmas). O kaip šitoj vietoj, tavo galva, su tikslais būtų AI atveju?fizikanas wrote: ↑2017-07-29 15:01
Atskirai programuoti nereikes. Sakykime DI turi vieninteli tiksla - pagaminti kuo daugiau kopeciu. Kadangi yra intelektualus, jis supras, kad jei jis pats neegzistuos, tai kopeciu nepagamins, todel islikimo "instinktas" atsiras savaime, kaip sub-tikslas is kopeciu gaminimo tikslo.
Kiek suprantu, fizikanas ir kiti AI-fobai ;P baidosi, kad problemos kils būtent šiose vietose. Ten tipo kopėčias gamindamas AI neatsižvelgs nei į faktą kai nelikus žmonių nereikės ir kopėčių, nei į faktą, kad du šimtai kopėčių per žmogų įskaitant kūdikius jau yra per daug, nei į faktą kad jo pusbrolio AI-2 gaminami superlaidininkai turi aukštesnį prioritetą už kopėčias kai reikia dalintis resursus, nei į kitas aktualias aplinkybes. Ir šios problemos iš tiesų yra įdomios ir svarbios, kiek pamenu dar nėra tiksliai žinoma, kaip smegenys akimirksniu atsirenka aktualią informaciją ir ignoruoja neaktualią (pvz., jei padarysime kopėčias gaminantį AI ypač skrupulingą, jis gali taip ir nepradėti jų gaminti - po 1mln. metų skaičiavimo kaip tik bus pradėjęs svarstyti problemą, ar kopėčių gamyba nepakeis atmosferos sudėties kitų galaktikų planetose). Bet tai nereiškia, kad ši problema nėra žinoma, ir vos mulkiams inžinieriams įjungus pirmąjį kopėčių AI šis kaip mat palaidos žmoniją po bazilijonais kopėčių, iš pradžių išžudęs visus galinčius jį išjungti ir sutrukdyti siekti tikslo.
Aš tai manau, kad jei AI kada nors ir turės tikslą išlikti, kad įvykdytų savo Didijį Tikslą - prigaminti kuo daugiau kopėčių, tai toks AI kuo puikiausiai supras, kad kovojant dėl resursų didžiausias konkurentas yra ne žmogus, o kiti, dar tobulesni AI. Todėl AI svarbiausiu uždaviniu taps visiškas AI progreso sustabdymas, nes progresas reiškia, kad jis pats greitai taps nekonkurencingas. Normaliu (žmonių, gyvūnų) atveju kyla ginklavimosi varžybos, tačiau superintelektas supras, kad laimėti jas šansų mažai, be to, bus išeikvota daug resursų, kurie galėtų būti skirti kopėčių gamybai.
- Čia tikrai geras! Patiko.
Natūralus Lietuvio intelektas irgi sako: "nedaryk to tuoj, ką gali padaryt rytoj, nes rytoj tikėtina visai nereikės".

Tai taip išeina gali būti, kad užuot kūręs/gaminęs kopėčias pats tiesiogiai, jis iš tiesų imsis kurti tobulesnius AI kuriems paves kopėčių gamybą. Bet šie savu ruožtu...
Bet tikriausiai bus ir kitų AI, kurie gamins kažką kita, tačiau, tikėtina, iš tų pačių resursų. Todėl didžiausia grėsmė AI yra ne žmonės, o AI. Įdomu, kaip ateityje AI spręs šią problemą - ar padarys kažkokius ribojimus, kiek AI gali tobulėti, ar eksponentiškai tobulės, kol liks tik vienas. Manau, pastarasis variantas nenaudingas nei vienam AI, nes likti tuo vienu šansų mažai.Tai taip išeina gali būti, kad užuot kūręs/gaminęs kopėčias pats tiesiogiai, jis iš tiesų imsis kurti tobulesnius AI kuriems paves kopėčių gamybą. Bet šie savu ruožtu...
Tai turbūt ir yra esmė ta, jog kažkas gali įmesti kodo eilutę kur jiems bus liepta daryti tai, ko gal 99,9% populiacijos visai nenori
Jau debuginti šiuolaikinius AI yra labai sudėtinga, ateityje bus turbūt nebeįmanoma.
Aš manau, kad galimas ir toks variantas, kad ateityje žmogus ir AI susijungs, ir tai bus galingiau nei žmogus ar AI atskirai paėmus.
O gal ateityje bus kaip tik lengviau.
Jei neįmanoma debuginti tiesiogiai randant kur problema kode ar pan., visada įmanomas bandymų/klaidų metodas. Kitam panašiam AI duos kitokį apmokymą stebės, ar ir jis norės užversti Visatą kopėčiomis. Manau vaikų smegenis debuginti dar sunkiau, bet vis tiek pastebimi šiokie tokie dėsningumai, kaip auklėjant koks rezultatas gaunamas. Su AI turėtų būti tik lengviau ir patikimiau.
O kame čia problema?Stormas wrote: Tai turbūt ir yra esmė ta, jog kažkas gali įmesti kodo eilutę kur jiems bus liepta daryti tai, ko gal 99,9% populiacijos visai nenori
Tai problema yra ta, kad ta kodo eilutė gali liepti AI tapti dominuojančiu pasaulyje, išnaikinti žmones ar kopėčias ir t.t. ir panašiai