User Online: 2 |
Timeout: 02:52Uhr ⟳ |
Ihre Anmerkungen
|
NUSO
|
Info
|
Auswahl
|
Ende
|
A
A
A
Mobil →
Umweltgeschichtliches Zeitungsarchiv für Osnabrück
Themen ▾
Baumschutz (112)
Bildung für nachhaltige Entwicklung (BNE) (360)
Die Arbeit der Stadtgaertner seit 1891 (975)
Die Hase und ihre Nebengewaesser (3007)
Gartenprojekte (22)
Klimageschichte (seit 1874) (162)
Konflikte um Kleingarten (25)
Konversionsflaechen (245)
Kooperation Baikal-Osnabrueck (25)
Umweltbildungszentrum(UBZ)1997-2018 (108)
Verein für Ökologie und Umweltbildung Osnabrueck (324)
Suche ▾
Einfache Suche
Erweiterte Suche
Listen ▾
Themenauswahllisten
Erscheinungsdatum (Index)
Ergebnis
Merkliste ▾
Merkliste zeigen
Merkliste löschen
Datensätze des Ergebnis
Suche:
Auswahl zeigen
Treffer:
1
Sortierungen:
Datum vorwärts
Datum rückwärts
1.
Erscheinungsdatum:
13.03.2018
aus Zeitung:
Neue Osnabrücker Zeitung/ Neue OZ
Überschrift:
Roboterautos mit Gewissen
Zwischenüberschrift:
Kognitionswissenschaftler entwickeln normative Ethik für autonome Fahrzeuge
Artikel:
Originaltext:
Soll
ein
selbstfahrendes
Auto
seine
Insassen
zur
Not
in
den
Tod
lenken?
An
der
Uni
Osnabrück
haben
Forscher
überlegt,
wie
Roboterwagen
in
ausweglosen
Situationen
moralische
Entscheidungen
treffen
können.
Osnabrück.
Autonome
Technik
wird
die
Zahl
der
jährlichen
Verkehrsopfer
nach
Schätzungen
um
90
Prozent
senken.
Ungeklärt
ist
jedoch
die
Frage,
wie
sich
computer-
und
sensorgesteuerte
Fahrzeuge
in
ausweglosen
Situationen
verhalten
sollen.
Wenn
ein
Unfall
also
nicht
zu
vermeiden
ist,
Anzahl
und
Schwere
der
Verletzungen
der
möglichen
Opfer
aber
beeinflussbar
scheinen.
Zur
normativen
Ethik
selbstfahrender
Fahrzeuge
haben
Wissenschaftler
des
Instituts
für
Kognitionswissenschaft
nun
eine
Studie
veröffentlicht.
Maschine
braucht
Regeln
„
Selbstfahrende
Autos
werden
die
erste
Generation
von
Robotern
sein,
die
moralische
Entscheidungen
mitten
in
unserer
Gesellschaft
treffen″,
sagt
Peter
König,
Professor
für
Neurobiopsychologie
und
gemeinsam
mit
dem
Osnabrücker
Futurologen
Maximilian
Wächter
Verfasser
der
Studie.
Es
sei
deshalb
dringend
notwendig,
Regeln
und
mögliche
Handlungsweisen
für
autonome
Fahrzeuge
zu
entwickeln.
Dass
menschlich-
ethische
Entscheidungen
in
Maschinen
implementiert
werden
können,
hat
bereits
eine
2017
veröffentlichte
Studie
der
Uni
Osnabrück
gezeigt.
Bei
der
neuen
Untersuchung
gingen
die
Wissenschaftler
einen
Schritt
weiter,
indem
sie
sich
auf
allgemeingültige
Urteile
und
Wertmaßstäbe
fokussieren,
die
auf
rationalen,
uneigennützigen
und
überparteilichen
Betrachtungen
basieren.
Diese
normative
Ethik
bestimmt
über
das
sittliche
Handeln
im
konkreten
Fall,
wenn
beispielsweise
zwischen
mehreren
Übeln
abgewägt
werden
muss.
Wächter
veranschaulicht
das
mit
einem
Beispiel:
„
Sie
fahren
in
einem
Kleinwagen,
davor
drei
Radfahrer.
Ein
Lastwagen
kommt
Ihnen
entgegen.
Rechts
auf
dem
Gehweg
arbeiten
vier
Mitarbeiter
der
Stadtwerke.
Plötzlich
stürzen
die
Radfahrer.
Es
ist
zu
spät,
um
zu
bremsen.″
Was
nun?
Während
ein
menschlicher
Fahrer
vermutlich
die
Radler
erfassen
würde,
könne
ein
autonomes
Fahrzeug
noch
reagieren.
Es
muss
sich
aber
entscheiden:
Soll
es
anstatt
der
Radfahrer
die
Gruppe
auf
dem
Bürgersteig
umfahren?
Oder
sollte
das
Auto
lieber
das
Leben
seines
Passagiers
aufs
Spiel
setzen
und
mit
dem
Lkw
kollidieren?
Simulation
am
Computer
Um
das
Verhalten
von
Versuchspersonen
in
einem
solchen
Dilemma
zu
beobachten,
nutzten
die
Osnabrücker
Forscher
sogenannte
Virtual-
Reality-
Technik,
bei
der
die
Wirklichkeit
am
Computer
nachgeahmt
wird.
Auf
simulierten
Fahrten
durch
neblige
Vorort-
oder
Berglandschaften
erschienen
plötzlich
einzelne
Menschen
oder
Gruppen
in
den
Fahrspuren.
Die
Probanden
am
Steuer
des
virtuellen
Wagens
mussten
dann
auswählen,
mit
welchen
Personen
oder
Objekten
sie
auf
der
Straße
zusammenprallen
wollen.
„
Den
Menschen
auf
der
eigenen
Fahrspur
auszuweichen,
hätte
bedeutet,
eine
andere
Anzahl
an
Menschen
auf
der
benachbarten
Fahrspur
zu
opfern.
Für
die
Teilnehmer
war
eine
moralische
Abwägung
notwendig″,
erläutert
Kognitionswissenschaftler
Wächter.
Die
beobachteten
Entscheidungen
wurden
dann
durch
eine
statistische
Analyse
ausgewertet.
„
Die
Ergebnisse
weisen
darauf
hin,
dass
im
Rahmen
dieser
unvermeidbaren
Unfälle
moralisches
Verhalten
größtenteils
zum
Wohl
der
Gemeinschaft
entschieden
wird.″
Darauf
aufbauend,
war
es
den
Autoren
der
Studie
möglich,
eine
normative
Ethik
für
selbstfahrende
Fahrzeuge
zu
entwickeln.
So
programmierte
Roboterautos
schützen
also
eher
Gruppen
als
Einzelpersonen,
eher
Kinder
als
Erwachsene.
Für
das
von
Wächter
bemühte
Beispiel
mit
dem
Kleinwagen
heißt
das:
Das
Auto
wählt
den
Zusammenprall
mit
dem
entgegenkommenden
Laster,
weil
das
die
geringsten
Kosten
für
die
Gemeinschaft
verursacht.
Konflikt
mit
Grundgesetz
Die
Osnabrücker
Kognitionswissenschaftler
hoffen,
mit
ihrer
Studie
einen
großen
Diskurs
anzustoßen
–
zumal
das
Grundgesetz
aktuell
eine
Abwägung
von
Menschenleben
gegeneinander
verbietet.
Niedersachsen
will
beim
autonomen
Fahren
Vorreiter
sein:
Wie
das
gelingen
soll,
lesen
Sie
im
Internet
auf
noz.de/
niedersachsen
Bildtext:
Brenzlige
Situationen
erfordern
moralische
Abwägungen.
Die
Kognitionswissenschaftler
der
Uni
Osnabrück
beobachten
mit
ihrer
Virtual-
Reality-
Technik
Versuchspersonen
bei
ihren
Entscheidungen
im
Straßenverkehr.
Grafik:
Universität
Osnabrück
Autor:
Renate Leonhard