Dirbtinis intelektas

Ramesnės ir draugiškesnės diskusijos be politikos. Mažiau apie politines pažiūras, vertybes ar pan. bei labiau kurstomos smalsumo sau įdomia tema.
Post Reply
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-08-08 21:58

Sejanus wrote:
2017-08-08 21:01
Jei išsigalvoji kaip ir kokie ateity AI bus keliami tikslai,
Mano tikslo issigalvojimo tikslas - parodyti, kiek labai nereikia stengtis galvojant tiksla, kad rezultatas butu katastrofiskas. Tikslas pagaminti kuo daugiau kopeciu, atrodo toks nekaltas, bet 100%-tinis jo igyvendinimas nulemtu visu zemes(ir ne tik zemes) resursu panaudojima kopeciu gamybai, nepaliekant nieko, kas leistu isgyventi zmogui.
Sejanus wrote:
2017-08-08 21:01
ir išsigalvoji kaip AI juos interpretuos,
Interpretuoti kazka tiesiogiai - pats paprasciausias budas interpretuoti, todel labiausiai tiketinas.
Sejanus wrote:
2017-08-08 21:01
tai kodėl taip be polėkio?
Nes manau, jog pirmaji intelekta sukurs zmones, todel tiksla irasys toki, koks is pirmo zvilgsnio atrodys naudingas zmogui, kaip pavyzdziui kopeciu gamyba. Aisku, gal koks ISIS narys sugalvos uzprogramuoti Alaha v2, bet labiau tiketina, kad pirmasis intelektas bus sukurtas labiau civilizuotame kraste.
Sejanus wrote:
2017-08-08 21:01
P.S. Dar viena vieta be polėkio tai kai siūlei tik trinti mano žinutes, kuriomis atkreipiu dėmesį, kad tu viską išsigalvoji ir neturi jokių faktų. Kodėl tik trinti? Dabar populiaru dar ir baninti. Prašyk, kad banintų :)
Neturiu nieko pries tavo zinutes i tema. Bet nematau prasmes dalyvauti stumimo konkurse ir noriu, kad ta aiskiai suprastum, kad nereiktu vel kartotis sia tema.
Sejanus wrote:
2017-08-08 21:01
Žinoma, kad nereiškia. Jei apsidairysi, tokių sau tikslus kuriančių intelektų yra visai nemažai aplinkui.
Taip ir nemazai ju, be jokiu problemu sau susikuria tokius tikslus, kad jei turetu pakankamai proto juos igyvendinti, tai dauguma musu jau nebepriklausytu tam buvimo klubui ;)
Augustas
senbuvis
Posts: 3165
Joined: 2012-05-03 18:44

2017-08-09 18:00

fizikanas wrote:
2017-08-08 21:58
Sejanus wrote:
2017-08-08 21:01
Žinoma, kad nereiškia. Jei apsidairysi, tokių sau tikslus kuriančių intelektų yra visai nemažai aplinkui.
Taip ir nemazai ju, be jokiu problemu sau susikuria tokius tikslus, kad jei turetu pakankamai proto juos igyvendinti, tai dauguma musu jau nebepriklausytu tam buvimo klubui ;)
Hm, tai kodėl Tamsta, Fizikane, galvoja, kad DI pavyks tokį tikslą įgyvendinti, jeigu net žmonėms iki šiol to nepavyko? :ax:
vvv2
senbuvis
Posts: 1178
Joined: 2007-08-02 11:24
Location: Kaunas city
Contact:

2017-08-09 20:06

Augustas wrote:
2017-08-09 18:00
Hm, tai kodėl Tamsta, Fizikane, galvojate, kad DI pavyks tokį tikslą įgyvendinti, jeigu net žmonėms iki šiol to nepavyko?
- Grb. fizikanas kalba apie Šėtono nano robotus, tikslu "paderinti" žmonių gyvenimą be Dievo.

:dry:
User avatar
Sejanus
senbuvis
Posts: 1669
Joined: 2008-11-16 14:41

2017-08-10 07:59

Na žiūrėk, aš dešimt metų rašiau programas kurios ką nors daro interpretuodamos užduotį tiesiogiai, ir dar nei viena neužvaldė pasaulio anei nužudė nors vieną žmogų. Manau mano patirtis nėra išskirtinė. Žmones žudo tik programos, kurios tam ir skirtos. Na dar kartais įvyksta kokie nors nelaimingi atsitikimai.

Dabar tu sakysi, kad AI yra ne veiksmų seka, o kažkas daugiau, kažkas sugebantis savarankiškai galvoti, atsižvelgti į iš anksto nesuprogramuotas aplinkybes ir panašiai. Kas yra faktas. Bet tu renkiesi matyti tik neigiamas to pasekmes, atseit AI mąstys pakankamai plačiai, kad pasitelktų iš anksto jam nepaskirtus resursus, susigalvotų iš anksto nenustatytų būdų siekti tikslo ir t.t., bet pakankamai siaurai, kad neatsižvelgs į žmogaus gerbūvį ar net gyvybes, nepajėgs suprasti, kad kopėčių reikia žmonėms. Šitoje vietoje <----- ir yra grynai tavo išsigalvojimas, nepagrįstas jokiais faktais anei plaukiantis iš kokių nors prielaidų, net protingu spėjimu nepavadinčiau, tiesiog siaubo filmų scenarijus. Bandykime diskutuodami nors kuo nors pasiremti. Pavyzdžiui, galime pasiremti šiuo metu egzistuojančiu intelektu, tarkime žmonių.

Kiekvienam žmogui su ypač retom psichinių ligonių išimtimis užtenka nuovokos gaminant kopėčias neišnaikinti žmonijos. Ir net jei netyčia prie kopėčių gamybos prieitų psichas, jis neturėtų realistiškų galimybių netyčia išnaikinti žmonijos.

Kodėl AI atveju būtų kitaip? Inžinieriai nėra visiški bukagalviai, įdiegia įvairių saugiklių nenumatytiems atvejams. Plius stengiasi labai daug ką numatyti, ištestuoti laboratorinėmis sąlygomis. Kas trukdo AI paleisti virtualioje aplinkoje ir pažiūrėti, kaip elgsis? Kas trukdo AI sprendimus prieš įgyvendinant realybėje dar duoti peržiūrėti žmonėms? Įsivaizduokime, kopėčių fabrike AI siūlo užsakyti tokius tai kiekius tokių žaliavų ir pakeisti konvejerį tokiais tai papildymais. Inžinieriai peržiūri siūlomus pakeitimus ir mato, kad naujosios kopėčios reikalaus kulkų ir kitais atžvilgiais irgi įtartinai panašios į robotus-žudikus su integruotais kulkosvaidžiais. Tokiu atveju tiesiog šių AI instrukcijų nevykdo, o patį AI išjungia ar toliau testuoja virtualioje aplinkoje.

Kitas scenarijus, AI visur pilna, įsivaizduokime, mano telefone yra AI. Ką jis man padarys, šnibždės į ausį Lovecraftiškus dalykus man was not supposed to know, nuo kurių išprotėčiau? Iš mano telefono pasaulį valdyti nėra lengva. Ir čia ne proto/gudrumo dalykas, o realistiškų galimybių.

Kaip bežiūrėsi, branduolinės bombos daug pavojingiau. Ir kad pats žmogus be jokių AI pagalbos susinaikins netyčia dėl savo veiklos šalutinių efektų man atrodo daug didesnė tikimybė, nei kad už mus tą padarys AI.
Vilius
emeritas
Posts: 6521
Joined: 2004-04-19 12:28

2017-08-10 11:46

fizikanas wrote:
2017-08-08 18:25
Geriau pagal koki apibrezima?
Čia turėjau omenyje "efektyviau". Jei AI bus protingesnis už mus, tai jis galės ir tikslus formuoti greičiau, tiksliau, nuosekliau, su daugiau niuansų, ir pan. Tai yra neišvengiama eksponentinio progreso pasekmė.
fizikanas wrote:
2017-08-08 18:25
DI tikslas yra kazkas panasaus i zmogaus vertybes ar morales normas - be jo, nera atskaitos tasko, pagal kuri galetume kazka vertinti ar tai gerai ar blogai.
Tau irgi niekas nedavė moralės normų per vieną kartą. Dalis jų kyla iš genetinio paveldo, kitą dalį išmokai iš aplinkos, gal kažką ir pats sugalvojai. AI lygiai taip pat turės priėjimą prie rašytų ir nerašytų elgesio normų, ir jei jis bus bent tiek protingas kaip mes, tai galės iš jų susidaryti ir savo moralės kodą. Ir, kaip jau sakiau, darys tą žymiai efektyviau.
fizikanas wrote:
2017-08-08 18:25
Zinoma tai nereiskia, kad neimanomas intelektas, kuris pats sau kurtu tikslus, randomu ar pagal koki nors algoritma, taciau abejoju ar pirmasis sukurtas bus toks. O pirmasis sukurtas, gali very well buti paskutinis.
"Pirmas sukurtas" bus tik truputį protingesnis už vidutinį žmogų. Jei toks nedidelis intelekto padidėjimas duotų kažkokį lemiamą pranašumą, tai ir dabar protingesni už vidutinius žmonės (pvz., su 130 IQ :)) turėtų būti žymiai pranašesni už likusius. Tačiau, kaip turbūt ir pats pastebėjai, realybėje taip nebūna.
Kad turėtų realų šansą nugalėti žmoniją, AI turėtų būti nepalyginamai protingesnis už mus - tarkim, bent tiek, kiek homo sapiens protingesnis už šimpanzę. Ir labai tikėtina, kad toks protingas AI nebebus vienatikslis. Iš dalies todėl, kad būtų nepraktiška eikvoti tiek resursų ten, kur gali susitvarkyti žymiai kvailesnis AI. Ir iš dalies dėl žmonių tingumo - jiems tiesiog nusibos sugalvoti vis naujus konkrečius tikslus, todėl su laiku uždavinės vis abstraktesnius, kol galiausiai nebeturės jokio supratimo, ką tas AI bando padaryti, ir kaip jam tai sekasi. O toliau jau mūsų distopiniai scenarijai sutampa - AI arba per klaidą, arba siekdamas kažkokio tik sau suprantamo tikslo padarys planetą sunkiai gyvenamą žmonėms, ir žmonija arba visai išnyks, arba liks gyventi tik mažuose rezervatuose nuošaliose vietose..
Vilius wrote:
2017-08-08 13:43
Deja pavojaus per akis uztenka ir turint konkretu tiksla.
Čia Sejanus jau gana smulkiai atsakė, tai nesikartosiu. Trumpai tariant, kol AI turi konkretų tikslą, yra gana lengva jį kontroliuoti.
Augustas
senbuvis
Posts: 3165
Joined: 2012-05-03 18:44

2017-08-10 17:55

Taikliai čia Sejanus su Viliumi pastebėjo. :thumbsup: Na, laukiam dabar, ką mūsų Fizikanas atsakys. :)
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-08-10 19:31

Sejanus wrote:
2017-08-10 07:59
Na žiūrėk, aš dešimt metų rašiau programas kurios ką nors daro interpretuodamos užduotį tiesiogiai, ir dar nei viena neužvaldė pasaulio anei nužudė nors vieną žmogų.
O ar kuri nors tavo parasyta programa sugebetu rasyti programas, taip gerai, kaip tu jas rasai? Ne? Tai tada tos programos, kurias tu rasai 10 metu, nera tos, apie kurias mes cia snekam.
Sejanus wrote:
2017-08-10 07:59
Bet tu renkiesi matyti tik neigiamas to pasekmes, atseit AI mąstys pakankamai plačiai, kad pasitelktų iš anksto jam nepaskirtus resursus, susigalvotų iš anksto nenustatytų būdų siekti tikslo ir t.t., bet pakankamai siaurai, kad neatsižvelgs į žmogaus gerbūvį ar net gyvybes, nepajėgs suprasti, kad kopėčių reikia žmonėms.
Viskas, ka isvardinai pries "bet", yra intelekto savybes, viskas, kas po "bet" yra morales savybes. Darai ta pacia klaida, kuria dare tavo oponentai temoje apie morales objektyvuma. Is kazkur trauki, kad nu vis delto, jei intelektas bus labai protingas, tai kazkaip magiskai jis taps moralus, kas reikstu a) objektyvios morales egzistavima, ko nera, b) kad kazkodel intelektas yra linkes ja vadovautis, kam nera pagrindo manyti, net jei isivaizduotume, kad objektyvi morale is ties egzistuoja.
Vien tai, kad egzistuoja protingi psichopatai, arba hitleris, arba bin ladenas, turetu pasufleruoti, kad didesnis intelektas, nereiskia didesnio moralumo.
Sejanus wrote:
2017-08-10 07:59
Šitoje vietoje <----- ir yra grynai tavo išsigalvojimas, nepagrįstas jokiais faktais anei plaukiantis iš kokių nors prielaidų, net protingu spėjimu nepavadinčiau, tiesiog siaubo filmų scenarijus.
Bet ka konkreciai tu teigi? Kad toks siaubo filmo scenarijus a) neimanomas, b) mazai tiketinas? Abu siuos teiginius turetum kazkuo pagristi, nes as pavyzdziui nematau nei fizikos, nei informatikos desniuose, nieko, kas NELEISTU tokio scenarijaus. O jei jis imanomas, tai anksciau ar veliau, norom ar nenorom, kazkas ji igyvendins. Su mooro desniu, interneto pletra ir zmonijos ziniu apie AI programavima gausejimu, ta tikimybe kas diena vis dideja. Panasiai, jei urana zmones galetu nusipirkti prekybos centre ir jis butu normali namu apyvokos preke, ir kiekvienais metais ji pardavinetu vis labiau sodrinta ir didesniais kiekiais, tai anksciau ar veliau galetume pagristai tiketis branduolines katastrofos.
Sejanus wrote:
2017-08-10 07:59
Kiekvienam žmogui su ypač retom psichinių ligonių išimtimis užtenka nuovokos gaminant kopėčias neišnaikinti žmonijos.
Matai, tu nesunkiai patiki, kad tikras zmogus, su vos keliais savo programinio kodo defektais (ka vadiname ipac retom psichinem ligom), galetu padaryti kazka labai blogo, bet va visiskai i zmogu net nepanasus, nuo nulio sukurtas intelektas, kazkokiu budu bus geresnis zmogus, net uz ta tikra zmogu, su vos keliais defektais. Kaip priejai tokios magiskos isvados?
Sejanus wrote:
2017-08-10 07:59
Ir net jei netyčia prie kopėčių gamybos prieitų psichas, jis neturėtų realistiškų galimybių netyčia išnaikinti žmonijos.
Na taip neturetu, nes jis tam nepakankamai protingas. Eksponentiskai protingejantis dirbtinis intelektas - bus.
Sejanus wrote:
2017-08-10 07:59
Inžinieriai nėra visiški bukagalviai, įdiegia įvairių saugiklių nenumatytiems atvejams.
Inzinieriai yra pasizymeje, kaip linke pernelyg optimistiskai vertinti savo koda. Niekas isskyrus juos, turbut nepasakytu, kad miega ramiai, zinodami, kad nuo pasaulio pabaigos juos saugo net keletas ivairiu inzinieriu idiegtu saugikliu. Palyginimui va Windausus nuo virusu ir isilauzeliu saugo ir firewallas ir antivirusine ir dar keletas ivairiu saugikliu :)
Sejanus wrote:
2017-08-10 07:59
Plius stengiasi labai daug ką numatyti, ištestuoti laboratorinėmis sąlygomis. Kas trukdo AI paleisti virtualioje aplinkoje ir pažiūrėti, kaip elgsis?
Niekas netrukdo, bet cia jau turime problema. Jei kazkas i ta aplinka ZIURES, tai bus atviras dirbtinio intelekto itakai. Esi girdejes apie efektyviausia hakeriu naudojama metoda, nulauzti betkokiai sistemai - socialine inzinerija? Tai isivaizduok, kad vietoj spoguoto hakerio virtualioje aplinkoje sedes ziliona kartu protingesnis intelektas.
Sejanus wrote:
2017-08-10 07:59
Kas trukdo AI sprendimus prieš įgyvendinant realybėje dar duoti peržiūrėti žmonėms? Įsivaizduokime, kopėčių fabrike AI siūlo užsakyti tokius tai kiekius tokių žaliavų ir pakeisti konvejerį tokiais tai papildymais. Inžinieriai peržiūri siūlomus pakeitimus ir mato, kad naujosios kopėčios reikalaus kulkų ir kitais atžvilgiais irgi įtartinai panašios į robotus-žudikus su integruotais kulkosvaidžiais. Tokiu atveju tiesiog šių AI instrukcijų nevykdo, o patį AI išjungia ar toliau testuoja virtualioje aplinkoje.
Na taip, jei dirbtinis intelektas, bus kvailesnis uz tuos inzinierius, tai ji inzinieriai gales nesunkiai isjungti. Bet mes kalbam apie protingesni intelekta. Net vidutinio proto zmogus sugebetu numatyti tokia ivykiu baigti, o mes kalbam apie padara kuris uz zmogu protingesnis keliom eilem. Kodel tu taip nuvertini jo protinius gebejimus? Gi nedurnas jis. Tikrai neissiduos, kol neras budo uzsilopyti didziausia savo saugumo skyle - off mygtuka.
Sejanus wrote:
2017-08-10 07:59
Kitas scenarijus, AI visur pilna, įsivaizduokime, mano telefone yra AI. Ką jis man padarys, šnibždės į ausį Lovecraftiškus dalykus man was not supposed to know, nuo kurių išprotėčiau? Iš mano telefono pasaulį valdyti nėra lengva. Ir čia ne proto/gudrumo dalykas, o realistiškų galimybių.
Tavo telefonas turi interneta, todel yra pati geriausia vieta dirbtiniui intelektui pradeti savo zygi. Optimistine vieta siame scenarijuje yra nebent ta, kad tu intelektu visur pilna, todel galbut jie del zemes resursu konkuruotu tarpusavyje ir kiekvienas negaletu daryti grynai savo agendos. Bet mums, kaip protiskai zemesnei rasei, nuo to ramiau neturetu buti, nes visu ju agendos ir karas tarpusavyje, nieko gero mums greiciausiai nezada.
Sejanus wrote:
2017-08-10 07:59
Kaip bežiūrėsi, branduolinės bombos daug pavojingiau.
Net wiki sako, kad AI yra 5 kartus didesne gresme, nei branduolinis karas: https://en.wikipedia.org/wiki/Global_catastrophic_risk
Pridursiu, kad mano manymu, tie skaiciai baisiai nuvertina dirbtinio intelekto rizika.
Sejanus wrote:
2017-08-10 07:59
Ir kad pats žmogus be jokių AI pagalbos susinaikins netyčia dėl savo veiklos šalutinių efektų man atrodo daug didesnė tikimybė, nei kad už mus tą padarys AI.
Globalinis atsilimas mus isnaikins geriausiu atveju po 100 metu. Tikrai spesim iki tol sukurti AI.
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-08-10 20:07

Vilius wrote:
2017-08-10 11:46
Čia turėjau omenyje "efektyviau". Jei AI bus protingesnis už mus, tai jis galės ir tikslus formuoti greičiau, tiksliau, nuosekliau, su daugiau niuansų, ir pan. Tai yra neišvengiama eksponentinio progreso pasekmė.
Na taip, bet kokiu tikslu jis ta darytu? Nebent turi omenyje potiklsius, panasiai, kaip mes susigalvojam tiksla atsikelti ryte ir eiti i darba, nes tai padeda kitam musu tikslui - tureti pinigu. Ar patirti malonuma, ar isgyventi, ar dar kazkas, ka mums prirandomino evoliucija. Tai tokius tiklsus, padesiancius pasiekti galutini tiksla, AI zinoma sau kursis puikiai, bet vistiek, tai daryti ji motivuos, kazkoks, ar kazkokie galutiniai tikslai. O tie galutiniai tikslai, tiketina, kad niekada nesikeis - nes juos keisti butu veiksmas pries jo paties siekiama tiksla. Pansiai kaip zmones nebando heroino, nes bijo, kad tai pakeis ju tikslus ir del to ju DABARTINIAI tikslai liks neigyvendinti.
Vilius wrote:
2017-08-10 11:46
Tau irgi niekas nedavė moralės normų per vieną kartą. Dalis jų kyla iš genetinio paveldo, kitą dalį išmokai iš aplinkos, gal kažką ir pats sugalvojai.
Bet sita sudetinga sistema radosi is daugybes iteraciju genetines ir kulturines evoliucijos. Tai sudetingas mechanizmas, kuri suprogramuoti reiketu ideti labai daug papildomu pastangu. Zymiai paprasciau tiesiog ihardcodinti morales normas ar kazkoki tiksla per viena karta.
Vilius wrote:
2017-08-10 11:46
AI lygiai taip pat turės priėjimą prie rašytų ir nerašytų elgesio normų, ir jei jis bus bent tiek protingas kaip mes, tai galės iš jų susidaryti ir savo moralės kodą. Ir, kaip jau sakiau, darys tą žymiai efektyviau.
Bet kodel jis turetu tai daryti? Mes pavyzdziui turime priejima prie juoduju nasliu (tie voriukai, kur suvalgo savo partneri po sekso, jei nemaisau) elgesio normu, bet neperimame ju sau. Kuriu galu dirbtinis intelektas perimtu musiskes?
Vilius wrote:
2017-08-10 11:46
"Pirmas sukurtas" bus tik truputį protingesnis už vidutinį žmogų. Jei toks nedidelis intelekto padidėjimas duotų kažkokį lemiamą pranašumą, tai ir dabar protingesni už vidutinius žmonės (pvz., su 130 IQ :)) turėtų būti žymiai pranašesni už likusius. Tačiau, kaip turbūt ir pats pastebėjai, realybėje taip nebūna.
Na taip, ka norejau pasakyti - tai pirmas, kuris sugebes save tobulinti ir del to protinges eksponentiskai.
Vilius wrote:
2017-08-10 11:46
Kad turėtų realų šansą nugalėti žmoniją, AI turėtų būti nepalyginamai protingesnis už mus - tarkim, bent tiek, kiek homo sapiens protingesnis už šimpanzę.
Na va, o dabar atsizvelk, kad dirbtiniui intelektui jokie fizikos densiai netrukdo buti 100 ar milijona kartu protingesniu uz zmogu. O jei jis protinges eksponentiskai, tai nuo betkurios startines pozicijos, pasieks ta gana greitai.
Vilius wrote:
2017-08-10 11:46
Ir iš dalies dėl žmonių tingumo - jiems tiesiog nusibos sugalvoti vis naujus konkrečius tikslus, todėl su laiku uždavinės vis abstraktesnius, kol galiausiai nebeturės jokio supratimo, ką tas AI bando padaryti, ir kaip jam tai sekasi.
Vel kalbi apie zmones ateityje, PO TO, kai bus sukurtas protingejantis AI :)
vvv2
senbuvis
Posts: 1178
Joined: 2007-08-02 11:24
Location: Kaunas city
Contact:

2017-08-11 09:37

fizikanas wrote:
2017-08-10 20:07
.. dabar atsižvelk, kad dirbtiniui intelektui jokie fizikos dėnsiai netrukdo būti 100 milijonų kartų protingesniu už žmogu. O jei jis protingės eksponentiškai, tai nuo betkurios startinės pozicijos, pasieks tą gana greitai.
- dabartinėm žiniom ir patirtimi taip nėra. Intelektas tikrai "auga" beveik eksponente, bet tik iki tam tikros ribos. Tai paaiškina, kodėl žmogaus, šimpanzės ar skruzdės intelektas sustoja vystymęsi nuo bendro starto gemale. Tas pats nustatyta ir su AI apsimokymu: pasiekus tam tikrą lygį, tolimesnis mokymas veikia kaip didėjanti destrukcija, bloginanti pasiekimus (išprotėjusio profesoriaus sindromas).

:?
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-08-11 11:15

vvv2 wrote:
2017-08-11 09:37
- dabartinėm žiniom ir patirtimi taip nėra. Intelektas tikrai "auga" beveik eksponente, bet tik iki tam tikros ribos. Tai paaiškina, kodėl žmogaus, šimpanzės ar skruzdės intelektas sustoja vystymęsi nuo bendro starto gemale. Tas pats nustatyta ir su AI apsimokymu: pasiekus tam tikrą lygį, tolimesnis mokymas veikia kaip didėjanti destrukcija, bloginanti pasiekimus (išprotėjusio profesoriaus sindromas).
Uz zmogu protingesnis intelektas gales save tobulinti ne mokindamasis, o keisdamas pati savo koda. Tavo analogijoje, tai butu, kad simpanze modifikuotu savo genus, ar pasioperuotu smegenis, taip, kad taptu tokia protinga, kaip zmogus. Tada ta jau zmogus proto simpanze, budama dar protingesne, galetu dar geriau save pasimodifikuoti ir t.t. iki begalybes.
Vilius
emeritas
Posts: 6521
Joined: 2004-04-19 12:28

2017-08-11 11:24

vvv2 wrote:
2017-08-11 09:37
Tas pats nustatyta ir su AI apsimokymu: pasiekus tam tikrą lygį, tolimesnis mokymas veikia kaip didėjanti destrukcija, bloginanti pasiekimus (išprotėjusio profesoriaus sindromas).
Čia turbūt kalbi apie taip vadinamą overfitting problemą, kai algoritmas per daug gerai išmoksta aprašyti turimus duomenis, tačiau nepastebi bendrų dėsningumų.

Nemanau, kad AI atveju tai būtų didelė problema, nes (1) jis turėtų priėjimą ne tik prie istorinių, bet ir prie realaus laiko duomenų, ir (2) jei jau mes su savo mėsiniais kompiuteriais dasiprotėjome iki šios problemos suvokimo ir sprendimo, tai už mus protingesnis kompiuteris irgi greičiausiai su tuo susidoros.
vapula
pradedantis
Posts: 330
Joined: 2016-12-08 20:13

2017-12-20 07:18

Pamenu, Despotas turėjo kažkokių iliuzijų apie žmogaus intelekto pranašumą pokeryje prieš DI. :-)

http://www.technologijos.lt/n/technolog ... o-principa
User avatar
Sejanus
senbuvis
Posts: 1669
Joined: 2008-11-16 14:41

2017-12-20 10:00

Tačiau iki pat dabar įsivaizduota, kad žaidimuose, kur nėra žinoma visa informacija – tarkime, kaip pokeryje – mašinai žmogų įveikti praktiškai neįmanoma.
Įdomu kas čia taip įsivaizdavo, turbūt tik patys technologijos.lt genijai
* Texas Holdem – pokerio rūšis, kur kortos „priklauso“ visiems žaidėjams, kai tuo tarpu traukimo (Draw) pokeryje kombinacijas galima sudaryti tik iš savo rankose laikomų kortų.
:D
Vilius
emeritas
Posts: 6521
Joined: 2004-04-19 12:28

2017-12-20 11:36

vapula wrote:
2017-12-20 07:18
Pamenu, Despotas turėjo kažkokių iliuzijų apie žmogaus intelekto pranašumą pokeryje prieš DI. :-)
Tikrai niekad neturėjau tokių iliuzijų. Mano pointas anoje temoje buvo, kad žmogaus įneštas triukšmas gali padėt laimėti tokio tipo žaidimus, kai žaidžia grynas AI prieš AI+žmogus komandą.. Bet aš net ir dėl šitos dalies nebesu tikras.

Ir bendrai, aš manau, kad ilgesnėje perspektyvoje AI mus aplenks ne tik visuose žaidimuose, bet ir kitose srityse, kur reikia naudoti protą: moksle, versle, politikoje, mene, etc.
vvv2
senbuvis
Posts: 1178
Joined: 2007-08-02 11:24
Location: Kaunas city
Contact:

2017-12-24 17:10

fizikanas wrote:
2017-08-11 11:15
Už žmogų protingesnis intelektas galės save tobulinti ne mokindamąsis, o keisdamas patį savo kodą.
- kad pakeisti savo kodą, reikia turėti apriorines žinias, kaip ką į ką keisti. Jei nežinai, gaunasi atsitiktinė atranka, kurią aptarinėjome anksčiau: atsitiktinei kodo perinkimo programai, kad išgauti nors primityvų DOS, nepakanka Visatos amžiaus!

:(
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-12-25 14:36

vvv2 wrote:
2017-12-24 17:10
- kad pakeisti savo kodą, reikia turėti apriorines žinias, kaip ką į ką keisti.
Kas trukdo protingesniam uz zmogu dirbtiniui intelektui jas tureti?
vvv2 wrote:
2017-12-24 17:10
Jei nežinai, gaunasi atsitiktinė atranka, kurią aptarinėjome anksčiau: atsitiktinei kodo perinkimo programai, kad išgauti nors primityvų DOS, nepakanka Visatos amžiaus!
Tai cia nebutu atsitiktine atranka, cia zmogus tikslingai sukurtu protingesni uz save koda, o tada jau pats tas kodas, budamas dar protingesnis, tikslingai kurtu uz save dar protingesni koda ir t.t.
Augustas
senbuvis
Posts: 3165
Joined: 2012-05-03 18:44

2017-12-25 15:00

fizikanas wrote:
2017-12-25 14:36
vvv2 wrote:
2017-12-24 17:10
- kad pakeisti savo kodą, reikia turėti apriorines žinias, kaip ką į ką keisti.
Kas trukdo protingesniam uz zmogu dirbtiniui intelektui jas tureti?
Kad tokias žinias kas nors turėtų, turbūt reiktų, kad kažkas kitas tas žinias tam kam nors įdėtų. :ax: Šiuo atveju tas pradines žinias įdėtų žmogus, kuris tikslingai kurtų DI.
vvv2 wrote:
2017-12-24 17:10
Jei nežinai, gaunasi atsitiktinė atranka, kurią aptarinėjome anksčiau: atsitiktinei kodo perinkimo programai, kad išgauti nors primityvų DOS, nepakanka Visatos amžiaus!
Tai cia nebutu atsitiktine atranka, cia zmogus tikslingai sukurtu protingesni uz save koda, o tada jau pats tas kodas, budamas dar protingesnis, tikslingai kurtu uz save dar protingesni koda ir t.t.
Aš nusiteikęs skeptiškai šio Fizikano teiginio atžvilgiu. :D
Vilius
emeritas
Posts: 6521
Joined: 2004-04-19 12:28

2017-12-27 10:20

Augustas wrote:
2017-12-25 15:00
Kad tokias žinias kas nors turėtų, turbūt reiktų, kad kažkas kitas tas žinias tam kam nors įdėtų. :ax: Šiuo atveju tas pradines žinias įdėtų žmogus, kuris tikslingai kurtų DI.
Žmonės taip pat negimsta mokėdami programuoti. Tai, jei jiems kažkaip pavyksta išmokti šios veiklos, tai už žmones protingesniam AI tai irgi neturėtų būti problema.
Post Reply