Dirbtinis intelektas

Ramesnės ir draugiškesnės diskusijos be politikos. Mažiau apie politines pažiūras, vertybes ar pan. bei labiau kurstomos smalsumo sau įdomia tema.
Augustas
senbuvis
Posts: 3165
Joined: 2012-05-03 18:44

2017-07-29 12:37

fizikanas wrote:
2017-07-29 09:53
Ir uzbegant uz akiu: ne dirbtinis intelektas netures morales normu, kurios ji sulaikys nuo zmoniu isnaikinimo.
Ir kas mums trukdo įdiegti dirbtiniam intelektui tas moralės normas, kad žmonių neliestų? :ax:
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-07-29 12:53

Augustas wrote:
2017-07-29 12:37
Ir kas mums trukdo įdiegti dirbtiniam intelektui tas moralės normas, kad žmonių neliestų? :ax:
Gal zinai, kokios yra tos normos, kurias reiketu idiegti? Arba kurio zmogaus, atsizvelgiant, kad jos yra subjektyvios? Net jei tai isvis teoriskai imanoma padaryti (kas yra dar neatsakytas klausimas), tai padaryti bus vistiek kurkas sudetingiau, nei dirbtini intelekta be morales normu. Todel greiciausiai pirmesnis bus sukurtas butent toks.
User avatar
Sejanus
senbuvis
Posts: 1669
Joined: 2008-11-16 14:41

2017-07-29 13:55

O DI automatiškai turės kažkokius išlikimo instinktus, ar juos irgi reikės programuoti atskirai? :)
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-07-29 15:01

Sejanus wrote:
2017-07-29 13:55
O DI automatiškai turės kažkokius išlikimo instinktus, ar juos irgi reikės programuoti atskirai? :)
Atskirai programuoti nereikes. Sakykime DI turi vieninteli tiksla - pagaminti kuo daugiau kopeciu. Kadangi yra intelektualus, jis supras, kad jei jis pats neegzistuos, tai kopeciu nepagamins, todel islikimo "instinktas" atsiras savaime, kaip sub-tikslas is kopeciu gaminimo tikslo.
Augustas
senbuvis
Posts: 3165
Joined: 2012-05-03 18:44

2017-07-29 15:54

fizikanas wrote:
2017-07-29 12:53
Augustas wrote:
2017-07-29 12:37
Ir kas mums trukdo įdiegti dirbtiniam intelektui tas moralės normas, kad žmonių neliestų? :ax:
Gal zinai, kokios yra tos normos, kurias reiketu idiegti? Arba kurio zmogaus, atsizvelgiant, kad jos yra subjektyvios? Net jei tai isvis teoriskai imanoma padaryti (kas yra dar neatsakytas klausimas), tai padaryti bus vistiek kurkas sudetingiau, nei dirbtini intelekta be morales normu. Todel greiciausiai pirmesnis bus sukurtas butent toks.
Jei pirmesnis bus pagamintas toks be moralės normų, tai jį bus galima paprasčiausiai išjungti, kol moralės normos bus sukurtos ir įdiegtos. O moralės norma iš esmės tik viena - neliesti (t.y., nežaloti, nežudyti) žmonių. :ax:
User avatar
Sejanus
senbuvis
Posts: 1669
Joined: 2008-11-16 14:41

2017-07-29 16:52

fizikanas wrote:
2017-07-29 15:01
Sejanus wrote:
2017-07-29 13:55
O DI automatiškai turės kažkokius išlikimo instinktus, ar juos irgi reikės programuoti atskirai? :)
Atskirai programuoti nereikes. Sakykime DI turi vieninteli tiksla - pagaminti kuo daugiau kopeciu. Kadangi yra intelektualus, jis supras, kad jei jis pats neegzistuos, tai kopeciu nepagamins, todel islikimo "instinktas" atsiras savaime, kaip sub-tikslas is kopeciu gaminimo tikslo.
Bet kadangi jis yra „intelektualus“, tai supras, kad kopėčių reikia žmonėms, ir jei nebus žmonių, kopėčių gamyba praras prasmę.

Žinok, siaubo B-filmuose esu matęs mažiau pritemptų paaiškinimų dėl AI keliamos grėsmės nei tu čia mėgini pateikti :)

AI yra įrankis kaip ir bet koks kitas, kokį pasidarysime, tokį turėsime. Bet jei nesusinaikinome branduolinėmis bombomis, tai turiu vilties, kad ir AI programuos ne visiški moronai. Ir resursų kiekis bei kitos galimybės AI disponavimui bus pakankamai apribotos.

Ta proga norėčiau visiems rekomenduoti Robert Sheckley apsakymą „Watchbird“ (1953), lietuviškai atrodo buvo išleistas kaip „paukštsargiai“. Fantastinė komedija apie AI keliamus pavojus. Santrauką pateikčiau jei tik būtų galimybė ją paslėpti po kokiu nors [spoiler] tagu *atsikosėja, truputį pakelia balsą* sakau jei šiame forume būtų spoiler tagas *apsidairo pažiūrėti ar Vilius išgirdo*
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-07-29 17:09

Augustas wrote:
2017-07-29 15:54
Jei pirmesnis bus pagamintas toks be moralės normų, tai jį bus galima paprasčiausiai išjungti, kol moralės normos bus sukurtos ir įdiegtos.
Jei jis jau bus sukurtas ir veikiantis, tai kas ji isjungs? Nebent kazkas protingesnis uz ji, bet jis juk eksponentiskai protingejantis dirbtinis intelektas. Kas bus uz ji protingesnis?
Augustas wrote:
2017-07-29 15:54
O moralės norma iš esmės tik viena - neliesti (t.y., nežaloti, nežudyti) žmonių. :ax:
O, kad viskas butu taip paprasta. Nejau nematei nei vieno filmo, kur robotui uzprogramuoja taisykle nedaryti zalos zmogui ir tada jis isnaikina visa zmonija, nes suvokia, kad zmogui daugiausiai zalos daro zmogus? Esme, kad tai, kas mums skamba savaime suprantama (pvz. nezudyk) mums yra suprantama del visos kompleksines morales normu sistemos, kuria turime (kuri dar maza to yra subjektyvi ir kiekvienam zmogui skiriasi). Bet mes patys jos tiek gerai nesuprantame, ka jau kalbeti apie jos uzprogramavima dirbtiniui intelektui. Atsimink, kad hitlerio morales normos buvo kurkas artimesnes vidutinio zmogaus morales normoms, nei kokionors roboto kadanors bus.
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-07-29 17:28

Sejanus wrote:
2017-07-29 16:52
Bet kadangi jis yra „intelektualus“, tai supras, kad kopėčių reikia žmonėms, ir jei nebus žmonių, kopėčių gamyba praras prasmę.
Turbut praleidai sakini, tai pakartosiu: "Sakykime DI turi vieninteli tiksla - pagaminti kuo daugiau kopeciu."
Ir ne, sitas dirbtinis intelektas neturi magiskai zmogisku morales normu ir zinojimo kaip elgtis yra "teisinga". "Kuo daugiau kopeciu" jam reiskia, "kuo daugiau kopeciu". O ne "kuo daugiau kopeciu, su salyga, kad bus kas jas naudos, nu nes kam tada jas gamint, jei ne del zmogaus". Cia tau ne kokia lsdp partija, kur viskas del zmogaus.
Sejanus wrote:
2017-07-29 16:52
Žinok, siaubo B-filmuose esu matęs mažiau pritemptų paaiškinimų dėl AI keliamos grėsmės nei tu čia mėgini pateikti :)
Oho, taip anksti diskusijoje, taip zemai puolam?
Sejanus wrote:
2017-07-29 16:52
AI yra įrankis kaip ir bet koks kitas, kokį pasidarysime, tokį turėsime.
Kalbi apie narrow DI, ale paveiksliuku atpazinimas. As kalbu apie general DI, ty savarankiskai mastyti gebanti koda, turinti uzprogramuota kazkoki tiksla, taciau ne tai, kaip jis turetu ta tiksla pasiekti.
Sejanus wrote:
2017-07-29 16:52
Bet jei nesusinaikinome branduolinėmis bombomis, tai turiu vilties, kad ir AI programuos ne visiški moronai. Ir resursų kiekis bei kitos galimybės AI disponavimui bus pakankamai apribotos.
Na noreciau ir as tureti tiek optimizmo. Deja branduoline bomba, net labai didele, gali sunaikinti vos viena miesta, o jai pagaminti reikia sodrinto urano, kurio gamyba reikalauja milzinisku resursu. Tuo tarpu suprogramuoti AI uztenka kompo, tokio galingumo, kuri mooro desnio deka anksciau ar veliau, kiekvienas piplys tures savo kiseneje.
Sejanus wrote:
2017-07-29 16:52
(1953)
Na gal ten ir idomus filmas, bet zinok per 64 metus buvo padaryta siektiek progreso kompiuteriu moklso srityje. Manau verta apsvarstyti sioki toki ziniu atsinaujinima.
vapula
pradedantis
Posts: 330
Joined: 2016-12-08 20:13

2017-07-30 04:25

Gerai, sakykime tas DI yra zilijoną kartų pranašesnis už žmogaus inteleką, per kelias minutes parašys kokią grand unified theory. Bet kurioje vietoje iš to pradeda plaukti pesimizmas ir panika apie žmonijos išnaikinimą? Ką jis kopėčiomis tą žmoniją negyvai apmėtys? Ta prasme, nesuprantu, kodėl nebus galimą į tą super intelektą žiūėti kaip į eilinį žmonių sukurtą dalyką, kurį galima išjungi ir įjungti, net jei jis apeis kokius nors kitokius sukurtus saugiklius vien dėl to kad protingas. Tas intelektas turės būti mašina, o mašinos paprastai turi fizinį off mygtuką, jai reikia energijos ir t.t. Ką rimtai tie fizikano ekspertai mano, kad po 50 metų bus sukurtas toks DI, kuris sau pasistatys elektrinę?
User avatar
Sejanus
senbuvis
Posts: 1669
Joined: 2008-11-16 14:41

2017-07-30 08:17

fizikanas wrote: Oho, taip anksti diskusijoje, taip zemai puolam?
Na taip, tu išsigalvoji koks tas AI bus, kokių resursų turės turės priėjimą, į ką atsižvelgs į ką ne, ir tada tais savo išsigalvojimais paremi baisiniai blogą ateities scenarijų. Net nematau, dėl ko čia diskutuoti. Aš galiu išsigalvoti, kad AI laikysis Azimovo robotikos taisyklių, plius neturės išlikimo instinkto kuris kaip ir moralės normos išsivystė natūraliai žmonėms ir kurį reikėtų programuoti atskirai. Arba kad turės išlikimo instinktą ir bus baisiniai moralus. Ar dar kokias kombinacijas.
Na gal ten ir idomus filmas, bet zinok per 64 metus buvo padaryta siektiek progreso kompiuteriu moklso srityje. Manau verta apsvarstyti sioki toki ziniu atsinaujinima.
Got you :P To apsakymo pagrindinis premisas yra lygiai kaip tavo, su tokiom pačiom tragikomiškom pasekmėm, kaip tu įsivaizduoji. Tik ne kopėčias gamino, o saugojo žmones nuo nusikaltėlių. Būtent, kad per 64 metus padarytas didelis progresas ir šiuo metu šansas, kad kas nors gamins tokius absurdiškai primityvius narrow minded AI yra labai mažas. Kas buvo labai geras premisas juodai komedijai prieš pusę amžiaus, dabar iš tavęs skamba jau šiek tiek... atgyvenusiai :)
Kalbi apie narrow DI, ale paveiksliuku atpazinimas. As kalbu apie general DI, ty savarankiskai mastyti gebanti koda, turinti uzprogramuota kazkoki tiksla, taciau ne tai, kaip jis turetu ta tiksla pasiekti.
Tai ir dabar gaminami AI be užprogramuoto tikslo, kaip kažką pasiekti. Jei programa tiesiog siekia tikslo sekdama algoritmu tai čia net iš toli nepanašu į AI ir apie tokias nekalbu. Tačiau bet koks AI vis tiek bus įrankis ir niekas daugiau. Nebent, nežinau, kokie ateities tolerastai išreikalaus kad AI būtų gaminami su savisaugos instinktu ir turėtų visas lygias teises ir pasmerks mūsų kartą už vergvaldinį programų išnaudojimą :) Gal net paminklą pastatys visiems persekiojančias raketas valdžiusiems AI, kurie buvo priversti nusižudyti Irake ir Afganistane ;(
Na noreciau ir as tureti tiek optimizmo. Deja branduoline bomba, net labai didele, gali sunaikinti vos viena miesta, o jai pagaminti reikia sodrinto urano, kurio gamyba reikalauja milzinisku resursu. Tuo tarpu suprogramuoti AI uztenka kompo, tokio galingumo, kuri mooro desnio deka anksciau ar veliau, kiekvienas piplys tures savo kiseneje.
Ir branduolinių bombų yra pagaminta arti 15 000, ir jos pajėgios sunaikinti pasaulį as we know it (branduolinė žiema savarankiškam skaitymui). O žmoniją gebančių išnaikinti AI parašyta nulis. Gal už 50 metų Petriukas ir turės savo telefone protingą gidą, žinantį kokius porno jis mėgsta labiausiai ir kokius sms siųsti kokiai merginai ir kokiu paros metu kokią picą užsakyti, bet c'mon, valdyti pasaulį ir išnaikinti žmoniją iš Petriuko telefono yra daug sunkiau, nei iš Kremliaus.
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-07-30 13:42

Sejanus wrote:
2017-07-30 08:17
Na taip, tu išsigalvoji koks tas AI bus, kokių resursų turės turės priėjimą, į ką atsižvelgs į ką ne, ir tada tais savo išsigalvojimais paremi baisiniai blogą ateities scenarijų. Net nematau, dėl ko čia diskutuoti. Aš galiu išsigalvoti, kad AI laikysis Azimovo robotikos taisyklių, plius neturės išlikimo instinkto kuris kaip ir moralės normos išsivystė natūraliai žmonėms ir kurį reikėtų programuoti atskirai. Arba kad turės išlikimo instinktą ir bus baisiniai moralus. Ar dar kokias kombinacijas.
Matai, kad jaustumeisi saugus, tau neuztenka issigalvoti kitokio DI, nei as issigalvoju, tau dar reiktu parodyti, kad toks, koki isivaizduoju as yra neimanomas. Nes jei kazkas sukurs, toki, koki issigalvojau as, o kazkas toki, koki issigalvojai tu, tai zmonija isnyks vistiek, nes tas tavo issigalvotas, neisgelbes nuo to mano issigalvoto. Logiska?
Dabar del to mano issigalvoto, tai as jam issigalvoti dariau labai minimaliai prielaidu:
1. jis bus intelektualus (kitaip nesivadintu dirbtiniu intelektu).
2. jis gales save tobulinti (jei saves netobulins, tai viskas ok, jis bus tik toks protingas, koki ji suprogramuosime. Baisu pasidaro tada, kai jis gali save tobulinti, taigi ir tobulinti saves tobulinimo sugebejimus, is ko seka eksponentinis tobulejimas).
3. jis tures bent 1 tiksla (jei neturetu nei vieno, tai tada nieko nedarytu, kad ir koks intelektualus butu, taciau tokio niekas greiciausiai ir neprogramuotu).
Prielaidos kuriu as nedarau: tai, kad jis magiskai tures kazkokia morale, gerio supratima, meile zmonijai ir dar kanors is vaivoryksciu pasaulio, kam uzprogramuoti reiketu daug papildomu pastangu ir kolkas niekas net nezino, nuo ko reiketu pradeti.

Dabar griztant prie islikimo instinkto:
1. Jei jis pats neegzistuos, ar tai trukdys jo vieninteliam tikslui, pagaminti kuo daugiau kopeciu? Taip trukdys.
2. Jei zmones neegzistuos, ar tai trukdys jo vieninteliam tikslui, pagaminti kuo daugiau kopeciu? Ne netrukdys.
Go figure.
Sejanus wrote:
2017-07-30 08:17
Got you :P To apsakymo pagrindinis premisas yra lygiai kaip tavo, su tokiom pačiom tragikomiškom pasekmėm, kaip tu įsivaizduoji. Tik ne kopėčias gamino, o saugojo žmones nuo nusikaltėlių. Būtent, kad per 64 metus padarytas didelis progresas ir šiuo metu šansas, kad kas nors gamins tokius absurdiškai primityvius narrow minded AI yra labai mažas. Kas buvo labai geras premisas juodai komedijai prieš pusę amžiaus, dabar iš tavęs skamba jau šiek tiek... atgyvenusiai :)
Ai, tai nori pasakyti, kad idejos, kurios amziui jau 64 metai, tu vis dar nesupranti? :) Tada reikes daugiau, nei tik atnaujinti ziniais.
Sejanus wrote:
2017-07-30 08:17
Tačiau bet koks AI vis tiek bus įrankis ir niekas daugiau.
Nelabai suprantu koki pointa cia sakai. Tai net jei isnaikins zmonija, vistiek galesi sakyti, kad cia tik irankis, tik labai galingas ir labai blogai panaudotas.
Sejanus wrote:
2017-07-30 08:17
Ir branduolinių bombų yra pagaminta arti 15 000, ir jos pajėgios sunaikinti pasaulį as we know it (branduolinė žiema savarankiškam skaitymui). O žmoniją gebančių išnaikinti AI parašyta nulis.

Branduoliniu galvuciu irgi buvo pagaminta 0 iki, kol ju buvo pagaminta 15000. Kai bus parasytas 1 DI, jau bus per velu sneketi apie tai, kiek ju parasyta.
Sejanus wrote:
2017-07-30 08:17
Gal už 50 metų Petriukas ir turės savo telefone protingą gidą, žinantį kokius porno jis mėgsta labiausiai ir kokius sms siųsti kokiai merginai ir kokiu paros metu kokią picą užsakyti, bet c'mon, valdyti pasaulį ir išnaikinti žmoniją iš Petriuko telefono yra daug sunkiau, nei iš Kremliaus.
Ta petriuko telefonas gali jau siandien. Zinant eksponetini technologiju tobulejima, po 50 metu tik to tiketis is petriuko telefono, mazu maziausiai, butu naivu. O del lengvumo isnaikinti pasauli, atsimink, kad petriuko telefonas pajungtas prie interneto, kuris prijungtas prie kremliaus, tai dirbtiniui intelektui, kaip ir nera esminio skirtumo, nuo kur pradeti.
Vilius
emeritas
Posts: 6521
Joined: 2004-04-19 12:28

2017-07-30 22:20

Sejanus wrote:
2017-07-29 16:52
*apsidairo pažiūrėti ar Vilius išgirdo*
.. ir jis ..
[+] show hidden text
išgirdo :)
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-07-31 17:28

vapula wrote:
2017-07-30 04:25
Bet kurioje vietoje iš to pradeda plaukti pesimizmas ir panika apie žmonijos išnaikinimą? Ką jis kopėčiomis tą žmoniją negyvai apmėtys?
Juk jau rasiau Sejanui. Visu pirma zmogus yra rizika, betkokiam DI tiklsui pasiekti. O betkoks protingas padaras stengsis valdyti rizikas, galincias sutrukdyti jo siekiamam tikslui. Kitom prasmem zmogus jam bus neidomus. Tiek neidomus, kad jei milziniskas kopeciu gaminimo fabrikas uzters atmosfera tiek, kad joje nebebus zmogui kuo kvepuoti - jis i tai natsizvelgs, nes jo tikslas yra kopeciu gamyba, o ne zmoniu kvepavimas.
vapula wrote:
2017-07-30 04:25
Ta prasme, nesuprantu, kodėl nebus galimą į tą super intelektą žiūėti kaip į eilinį žmonių sukurtą dalyką, kurį galima išjungi ir įjungti, net jei jis apeis kokius nors kitokius sukurtus saugiklius vien dėl to kad protingas. Tas intelektas turės būti mašina, o mašinos paprastai turi fizinį off mygtuką, jai reikia energijos ir t.t.
Na protingas padaras, matydamas, kad turi off mygtuka, turbut tai vertis, kaip viena pagrindiniu savo saugumo skyliu, kuria butina kuo greiciau uzlopyti.
vapula wrote:
2017-07-30 04:25
Ką rimtai tie fizikano ekspertai mano, kad po 50 metų bus sukurtas toks DI, kuris sau pasistatys elektrinę?
Kodel manai, kad zilijona kartu protingesnis padaras uz zmogu nesugebetu padaryti kazko, ka gali padaryti, nei kiek uz zmogu neprotingesnis zmogus?
Augustas
senbuvis
Posts: 3165
Joined: 2012-05-03 18:44

2017-07-31 18:56

vapula wrote:
2017-07-30 04:25
Ta prasme, nesuprantu, kodėl nebus galimą į tą super intelektą žiūėti kaip į eilinį žmonių sukurtą dalyką, kurį galima išjungi ir įjungti, net jei jis apeis kokius nors kitokius sukurtus saugiklius vien dėl to kad protingas. Tas intelektas turės būti mašina, o mašinos paprastai turi fizinį off mygtuką, jai reikia energijos ir t.t.
Na protingas padaras, matydamas, kad turi off mygtuka, turbut tai vertis, kaip viena pagrindiniu savo saugumo skyliu, kuria butina kuo greiciau uzlopyti.
Ir jis užlopys tą saugumo skylę, nužudydamas visus žmones, kad jie neprieitų prie to išjungimo mygtuko? :ax:
vapula wrote:
2017-07-30 04:25
Ką rimtai tie fizikano ekspertai mano, kad po 50 metų bus sukurtas toks DI, kuris sau pasistatys elektrinę?
Kodel manai, kad zilijona kartu protingesnis padaras uz zmogu nesugebetu padaryti kazko, ka gali padaryti, nei kiek uz zmogu neprotingesnis zmogus?
O kodėl Tamsta, Fizikane, mano, kad zilijoną kartų už žmogų protingesnis padaras neturės moralės normų? Juk moralės normos irgi yra daugiausia proto rezultatas? :ax:
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-07-31 21:43

Augustas wrote:
2017-07-31 18:56
Ir jis užlopys tą saugumo skylę, nužudydamas visus žmones, kad jie neprieitų prie to išjungimo mygtuko? :ax:
Ar tu, turedamas galimybes, neisnaikintum visu zemes uodu, kad apsisaugoti nuo maliarijos rizikos?
Augustas wrote:
2017-07-31 18:56
O kodėl Tamsta, Fizikane, mano, kad zilijoną kartų už žmogų protingesnis padaras neturės moralės normų? Juk moralės normos irgi yra daugiausia proto rezultatas? :ax:
Ar morales normu (ir kaip tycia, butent tokiu, kaip musiskes) turejimas pades jam pagaminti daugiau kopeciu?
Augustas
senbuvis
Posts: 3165
Joined: 2012-05-03 18:44

2017-08-01 15:01

fizikanas wrote:
2017-07-31 21:43
Augustas wrote:
2017-07-31 18:56
Ir jis užlopys tą saugumo skylę, nužudydamas visus žmones, kad jie neprieitų prie to išjungimo mygtuko? :ax:
Ar tu, turedamas galimybes, neisnaikintum visu zemes uodu, kad apsisaugoti nuo maliarijos rizikos?
Tikrai nenaikinčiau, nes uodai yra naudinga grandis ekosistemoje.
Augustas wrote:
2017-07-31 18:56
O kodėl Tamsta, Fizikane, mano, kad zilijoną kartų už žmogų protingesnis padaras neturės moralės normų? Juk moralės normos irgi yra daugiausia proto rezultatas? :ax:
Ar morales normu (ir kaip tycia, butent tokiu, kaip musiskes) turejimas pades jam pagaminti daugiau kopeciu?
Na, taip. Manau, kad moralės normų turėjimas (ypač tokių kaip mūsiškės) turėtų padėti pagaminti daugiau kopėčių. Nes kuo pagrįstos mūsiškės moralės normos? Kaip Tamstai, Fizikane, atrodo? :)
User avatar
fizikanas
senbuvis
Posts: 5791
Joined: 2004-05-27 19:45

2017-08-01 17:59

Augustas wrote:
2017-08-01 15:01
Tikrai nenaikinčiau, nes uodai yra naudinga grandis ekosistemoje.
Na tai labai didelis gamtos myletojas esi. Bet manau net tu savo gyvenime esi viena kita tarakonu ar skruzdelyciu genocideli atlikes. Tai ka kalbeti apie dirbtini intelekta?
Augustas wrote:
2017-08-01 15:01
Na, taip. Manau, kad moralės normų turėjimas (ypač tokių kaip mūsiškės) turėtų padėti pagaminti daugiau kopėčių. Nes kuo pagrįstos mūsiškės moralės normos? Kaip Tamstai, Fizikane, atrodo? :)
Na butu idomu isgirsti tavo versija. Kuo paremtos musu morales normos, ir kaip jos pades superintelektui pagaminti daugiau kopeciu?
User avatar
Sejanus
senbuvis
Posts: 1669
Joined: 2008-11-16 14:41

2017-08-01 20:11

Ar tu, turedamas galimybes, neisnaikintum visu zemes uodu, kad apsisaugoti nuo maliarijos rizikos?
Jokiu būdu. Jie yra svarbi ekosistemų dalis, ir išnaikinus pasekmės gali būti neprognozuojamos.
Post Reply