Jump to content

Etiska & juridiska problem i den intelligenta automatikens spår


Fleetadmiral

Recommended Posts

Globalt ser man fler och fler exempel på att automatiska system tar över allt mer; vi har spårtaxi (se nedan för bilder på planerad spårtaxi i Stockholm och Göteborg), andra automatiska persontransportsystem på t.ex. många flygplatser och automatiska godsfraktsystem. Vi ser robotar av olika slag, exempelvis sådana som kan göra kirurgiska ingrepp utan mänsklig assistans.

De etiska och juridiska problemen gäller inte för maskiner som hissar, biltvättar, osv., utan för maskiner som i viss mån själva kan bestämma vad som händer. Det är väl bra så länge robotarna gör rätt, men vad händer om en operationsrobot klantar sig så att en människa dör, vilket inte skulle ha skett om människan opererats av en mänsklig kirurg. Ska man då döma roboten till fängelse?

spartaxi_sthlm_090820.jpgspartaxi_gtbg_090820.jpg

Edited by Fleetadmiral
Link to comment
Share on other sites

vad händer om en operationsrobot klantar sig så att en människa dör, vilket inte skulle ha skett om människan opererats av en mänsklig kirurg. Ska man då döma roboten till fängelse?

Hmm, det är svårt att svara på frågan. Men denna tanken för mig direkt till Isaac Asimovs "Den nakna solen (The Naked Sun)". Tyvärr, jag kom inte mycket i håg vad boken handlar om. Men jag minns en viktig bit av handling som gjorde mig ett stark intryck.

Poäng är att man har häktat en robottjänare som var misstänkt för morden på ägaren. Frågan är att man ska döma roboten till fängelse? Jag tror kanske att man skulle välja att avaktivitera roboten och dess alla modell på grund av räsdla för upprepning av "fel" i framtiden.

Om robot med mänskliga utseende och egen intelligens (etik/moralfråga, typiska tre robotlagar), ska man dömda roboten för att döda en människa (eller en robot)? I den här exemplet från boken "Död robot (The Robot of Dawn)" har man misstänkat en robot för morden på en robot. Man försökte fria den misstänkta roboten från anklagelsen. Jag är lite tveksam på hur jag ska svara på denna frågan.

Jag är mycket intresserad av "maskinernas rättigheter" eller rätt sagt begerpp om transhumanism.

Jag ser verkligen emot att höra era åsikterna i den här diskussionen.

Ursäkt för att jag inte är så bra på svenska men jag skriver direkt från min hjärta.

Edited by Nettan
Link to comment
Share on other sites

De tre lagarna du syftar på, blev senare fyra:

Första lagen: En robot får inte skada en människa, eller genom att inte ingripa tillåta att en människa kommer till skada.

Andra lagen: En robot måste lyda de kommandon en människa ger den så länge inte dessa kommandon strider mot Första lagen.

Tredje lagen: En robot måste skydda sig själv så länge det skyddet inte strider mot Första eller Andra lagen.

Senare la Asimov till ytterligare en lag som han kallade den "nollte" lagen.

Nollte lagen: En robot får inte skada mänskligheten, eller genom att inte ingripa tillåta att mänskligheten kommer till skada.

Det stora problemet med robotar är att de ännu inte har något eget konstgjort "samvete". Man kan därför inte klandra en robot om den råkar döda en människa, eftersom den helt enkelt inte "vet" bättre. Ansvaret måste ligga hos den som skapade roboten. Det var därför Asimov skapade de fyra lagarna; för att den som konstruerade roboten skulle kunna bygga in dessa spärrar. Det stora dilemmat är att det skulle vara näst intill omöjligt att få en robot att "förstå" lagarna. Om en robot inte visar sig hålla måttet måste den modifieras eller skrotas. Minst lika höga krav bör ställas på robotar som på t.ex. mediciner innan de släpps ut på marknaden; de måste vara så nära "fail-safe" som det är möjligt, och helst kunna visa upp en överlägsen statistik i antal lyckade användningar.

Link to comment
Share on other sites

Ja det var på tv igår om inlärning av etik och moral till en robot. Man hade inte kommit så långt med den (tvåbenta roboten som kunde prata). Men dom visade en sekvens när man hade lärt roboten att ge en person en läsk när han sa att han var törstig- alltså personen hade inte sagt åt roboten- "ge mej en läsk". Alltså personen sa att han var törstig och då gav roboten honom en läsk. Personen frågade då roboten varför roboten gav honom en läsk. Roboten svarade att roboten förstod att personen var törstig och trodde/räknade ut att då är det nog bra att ge personen en läsk så att personen blir glad! Kan ju tyckas ytterst trivialt men där har vi nog ett litet frö till att lära in hur man ska beta sej mot människor- alltså etik och moral.

Link to comment
Share on other sites

Jag tycker att det är ganska mycket av en icke-fråga fortfarande. Hur många parametrar man än kastar in i en robots beslutsprocess idag eller inom den närmsta framtiden så är den inte på något sätt levande och ger därmed blanka sjutton i om den sätts i fängelse, förstörs eller straffas på annat sätt.

Det vore ju lite som att idag bura in sin termostat om den höjer temperaturen lite för mycket :P

Ansvaret ligger ju fullt på utvecklarna och användarna att se till att produkten används på rätt sätt. Om något går fel så får man då kolla om felet var uppenbarligen brottsligt från tillverkarens sida, felanvändning, eller helt enkelt en oförutsebar olycka. Därefter får lämpliga åtgärder tas, såsom t.ex. buggfixning.

Edited by Fmi
Link to comment
Share on other sites

×
×
  • Create New...