Autonomes Fahren: Bericht zeigt fehlende Serienreife bei Google und anderen

homann5

Semiprofi
Thread Starter
Mitglied seit
10.10.2007
Beiträge
2.427
<p><img src="/images/stories/logos-2015/google_robocar.jpg" alt="google robocar" style="margin: 10px; float: left;" />Glaubt man der Automobilindustrie, ist der im Alltag autonom fahrende PKW in greifbarer Nähe. So betont Daimler beispielsweise, dass Anfang der Woche in Detroit vorgestellte <a href="index.php/news/allgemein/wirtschaft/37748-neue-e-klasse-ab-werk-auf-autonomes-fahren-ausgerichtet.html" target="_self">neue E-Klasse</a> bereits ab Werk mit der notwendigen Technik ausgestattet sei, bei Tesla bewirbt man die bereits nutzbare Autopilot-Funktion und bei Volvo ist die Zuversicht so groß, dass man <a href="index.php/news/allgemein/wirtschaft/36805-autonomes-fahren-volvo-uebernimmt-die-haftung-im-falle-eines-unfalls.html" target="_self">die Haftung im Schadensfall übernehmen...<br /><br /><a href="/index.php/news/allgemein/wirtschaft/37798-autonomes-fahren-bericht-zeigt-fehlende-serienreife-bei-google-und-anderen.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Porsche-Chef Mathias Müller nannte das autonome Fahren im September letzten Jahres einen "durch nichts zu rechtfertigenden Hype" - und wieder wurde das arabische Sprichwort bestätigt, wonach jemand der die Wahrheit sagt am besten schon einen Fuss im Steigbügel haben sollte, denn es hagelte natürlich Kritik.

Google & Co. reden gerne von ihren gefahrenen Kilometern, aber Kilometer auf Strassen ohne echte Hindernisse auf einem Parcour abzuspulen ist eine Sache.
Ich bevorzuge, in "Fahrten" zu rechnen. Sagen wir mal ich mache jeden Tag 2 Fahrten (zur Arbeit und Zurück). Urlaub, Sonntags und Feiertage gehen ab an denen ich niemals fahre, also sagen wir 250 Tage im Jahr.
Macht 500 Fahrten pro Jahr. Unfallfrei bin ich seit 28 Jahren - und ich fahre viel, ich gehöre zu den Leuten die täglich bis zu 200 km abspulen fürs Pendeln.
Ergibt also 14000 Fahrten (die tatsächliche Zahl dürfte bestimmt 3-5 mal so hoch sein, aber rechnen wir einfach mal mit dem sehr niedrigen Wert).
Nehmen wir an ich würde auf meiner nächsten Fahrt einen Unfall verursachen - dann wäre mein persönliches Unfallrisiko 14000 zu 1.
Oder anders ausgedrückt: (100/14001)*14000, ergibt eine Sicherheitsquote von 99,993%.

Ein autonomes System, welches diese Quote nicht wenigstens erreicht (wir hatten mit einem sehr niedrigen Wert gerechnet) wird mich wesentlich wahrscheinlicher in einen Unfall verwickeln als wenn ich selber fahre - da wäre es doch blöd von mir, mich einem solchen System anzuvertrauen.

Und dann das nächste grosse Problem: Wer haftet dafür ? Wenn mich mein neues automomes Fahrzeug in einen Unfall verwickelt den ICH statistisch gesehen nicht verursacht hätte, für den ich aber als "Fahrzeugführer" verantwortlich gemacht werde - da wäre ich doch 2 mal blöd, ein autonomes Fahrzeug zu benutzen, oder ?

Unterm Strich sieht es so aus: Ja, Fahren wie die Jetsons mit einem Fahrzeug, das nur noch einen Knopf zum ein- und ausschalten hat, das wäre witzig. Aber NUR wenn es neben den autonomen Fahrzeugen autonome Leitsysteme gibt, so dass das Fahrzeug automatisch und selbstverantwortlich fährt - sprich, ICH nicht mehr hafte wenn was passiert. Und zweitens wenn die tatsächliche Sicherheit eines autonomen Fahrzeugs mindestens so hoch ist wie ich selbst es kann, und das IST sehr hoch.

Wer die Digitalisierung im Flugzeugcockpit mitverfolgt hat, der weiss, dass das Bestreben von Ingenieuren, den Faktor Mensch anhand früherer Unfälle von gewissen Handlungen auszuschliessen, oft selbst zur Unfallursache wurde. Als Beispiel der Lufthansa-Airbus, der in Warschau bei der Landung bei Aquaplaning über das Ende der Landebahn hinausschoss. Der Grund für den Unfall war der Absturz einer japanischen 747, bei der die Piloten in einem Anfall geistiger Umnachtung den Umkehrschub in der Luft aktivierten, weil sie zu hoch und zu schnell anflogen und eigentlich hätten durchstarten müssen, aber das vermeiden wollten weil sie anschliessend nochmal 20 Minuten Warteschleife hätten drehen müssen. Die Ingenieurslösung war, dass jedwedes Bremsen nur möglich war, wenn das Flugzeug gelandet war. Aufgrund des Regens und Aquaplanings bekam die Maschine nach der Landung an den Rädern aber nicht genügend "Spin-Up" - die Räder drehten sich zu langsam, der Computer schloss daraus "wir sind noch nicht gelandet" und die Piloten hatten keine Möglichkeit, die Maschine durch Radbremsen oder Schubumkehr zu verlangsamen - Crash durch Ingenieursversagen.

Oder ein anderes, unblutigeres Beispiel aus der Kategorie "Denkste!", ebenfalls von Airbus: zur Zeit des A310 fing Airbus schon stark mit der Computerisierung an. Da man keine Erfahrung hatte legte man die Systeme 3x3-fach redundant aus: 3 verschiedene Computer, mit 3 verschiedenen Betriebssystemen. Damit, so schlussfolgerten die Ingenieure, war man absolut sicher, denn die Panne, die 3 völlig unterschiedliche Systeme gleichermassen betreffen würde, gab es nicht. Bis man eine A310 abends auf dem Vorfeld in Nairobi abstellte und morgens um 11 Uhr zu einem Flug starten wollte, die Maschine aber hartnäckig den Dienst verweigerte: die Tropenhitze der Vormittagssonne hatte das Flugzeuginnere so aufgeheizt, dass alle 3 Systeme ausfielen und sich die Maschine nicht starten lies. Nichts passiert, ausser dass die Denke "wenn wir 3-fache Redundanz haben kann gar nichts passieren" sich als nicht ganz zutreffend erwies. Es gab diesen einen Faktor, der alle Vorkehrungen überging.

Für Autos bedeutet das: Haufenweise Redundanz, haufenweise Sensorik, haufenweise teure Systeme. Autonome Fahrzeuge werden erheblich teurer werden als selbstgefahrene. Auch das wird sich auf die Akzeptanz auswirken. Wer wird sich einen Lada zum Preis eines Mercedes kaufen ? Nicht viele, denke ich.

Womit ich bei dem Punkt bin, den Porsche-Chef Müller schon angesprochen hat: Autonomes Fahren ist ein Hype.
Es wird teilautonome Systeme und ausgeklügelte Assistenten geben, die hoffentlich Auffahrunfälle, Parkrempler und Übermüdungsunfäle durch Verlassen der Fahrspur verhindern.
Aber bevor wir bei den Jetsons sind müssen die Autos zusätzlich erst noch fliegen lernen. :)
 
Zuletzt bearbeitet:
@Soron: Sehr schöner Beitrag, gute Beispiele, schön argumentiert.
Autonomes Fahren wird denke ich nur sicher, wenn es eine umfassende Auto-zu-Auto Kommunikation oder noch besser ein zentrales Leitsystem gibt.
Problem:
- der Datenschutz: schließlich wüsste dann nicht nur dein eigenes Auto, wo du hinwillst
- die Aufbaukosten: autonomes Fahren währe erst möglich, wenn zumindest fast alle entsprechende Fahrzeuge hätten und ggf. das zentrale Leitsystem aufgebaut ist. Das ist aber ein Teufelskreis: Ohne genügend Autos kein autonomes Fahren, ohne autonomes Fahren kauft sich niemand die entsprechenden Autos
- die Rechenleistung: in Berlin sind 1,3 mio. Fahrzeuge zugelassen, ca. 5500km Straße auf knapp 900 Quadratkilometern Fläche existieren, dazu 1700km ÖPNV-Strecken und zehn- bis hunderttausende Fußgänger und Fahrradfahrer stören ^^ Die Fahrzeuge zentral zu verwalten, zu steuern und dass dann ans Fahrzeug zu senden wird unverschämt aufwendig. Ansonsten muss das Auto das übernehmen und mit hunderten Autos drumrum kommunizieren, nicht-autonome Verkehrsteilnehmer warnehmen und trotzdem zuverlässig arbeiten...

Es ist ein Hype, absolut. Das wird weder in diesen noch im nächsten Jahrzehnt was.

LG
RMG
 
Es gab vor paar Monaten einen interessanten Artikel in Spiegel Online. Die zentrale Frage war:
Wenn ein Unfall mit Personenschaden unvermeidlich ist, schützt das Auto das Kind das auf die Strasse läuft oder den Insassen. Es gibt da doch recht verschieden Ansätze.
 
Was mich persönlich angeht bin ich etwas optimistischer als Soro... so ist zum Beispiel unter den Vorreitern des autonomen Fahrens keiner, der behauptet, dass die Technik heute schon soweit wäre. Der vorgelegte Bericht sagt also, dass die Technik nicht serienreif sei? Damit erreicht der Bericht lediglich den exakt selben Schluss, dem sich jeder bereits bewusst ist! ;)

Darüberhinaus muss man die im Bericht ausgewerteten Daten auch mit entsprechend offenen Augen anschauen. So sind zum Beispiel zwei der fünf in 2015 als Unfall deklarierten Fälle Situationen gewesen, in denen das Auto einen Verkehrskegel übersehen hat - der "Unfall" wäre das Beiseiteschieben dieser Kegel durch das Auto gewesen. Es geht also mitnichten immer um Personen- oder Sachschaden, sondern oft um die noch nicht ganz ausgereifte Reaktion des Fahrzeugs auf abnormale Vorfälle auf bekannten Strecken, z.B. Baustellen und geänderte Verkehrsführung.

Sicherlich müssen die Hersteller noch einiges an Arbeit investieren, damit die Zuverlässigkeit der Software in akzeptable Regionen klettert. Dennoch halte ich das nicht für einen Vorgang, der 10-15 Jahre dauern wird... ich halte mich da eher an die Aussage von Elon Musk, der 2017 als das Jahr der Serienreife nennt. Und weil Elon Musk nun mal ein extrem optimistischer Mensch ist, schlage ich pauschal nochmal zwei Jahre drauf, und erwarte vernünftige Technik knapp vor Ende des laufenden Jahrzehnts.
 
Ich sehe das größte Problem momentan weniger in der Software und fehlerhaften Entscheidungen dieser, sondern in den Sensoren.

Autonome Fahrzeuge verwenden z.B. Kamerasysteme, Ultraschall und Radar Abstandssensoren. Diese funktionieren bei guten Witterungsbedingungen zwar ziemlich zuverlässig, aber die hat man eher selten.

Wenn ich mir vorstelle, dass solche Systeme auch bei dem Mistwetter der letzten Wochen funktionieren sollen, gute Nacht. Kameraoptiken sind mit einer Schicht aus Salz und Dreck überzogen und Kratzer durch "Scheibenwischer" sind auch nicht gut. Die Ultraschallsensoren haben mit Dreck und/oder Eis auch massive Probleme. Bei heutigen Fahrzeugen lässt sich dann z.B. die Parkautomatik nicht mehr aktivieren, oder die einfachen Abstandsanzeigen zeigen nur, dass man vorne und hinten direkt an einem Hindernis steht.

Von den Wartungskosten die anfallen, wenn solche Systeme repariert werden müssen (sobald so ein Fahrzeug mal älter als 5 Jahre ist) mal ganz zu schweigen...

Eine ganz andere Sache ist auch die eher intuitive Einschätzung die ein routinierter Fahrer hat. Wir bilden ganz unterbewusst eine Einschätzung der Verkehrsteilnehmer um uns herum und können potentiell gefährliche Situationen schon vorher entschärfen, indem wir einfach rechtzeitig vom Gas gehen oder angemessen bremsen.
Solches Verhalten ist ein ständiger Lernprozess, dem jeder Autofahrer permanent unterliegt, was auch eine Erklärung dafür ist, warum Fahranfänger ein höheres Unfallrisiko haben. Ein solches Lernverhalten lässt sich nach meinem Kenntnisstand auch mit moderner Software nicht abbilden.

Mfg Bimbo385
 
Google & Co. reden gerne von ihren gefahrenen Kilometern, aber Kilometer auf Strassen ohne echte Hindernisse auf einem Parcour abzuspulen ist eine Sache.

Afaik fährt zumindest Google seit 2012 auf öffentlichen Straßen, und damit gibt es auch echte Hindernisse... die Anderen tun das glaub ich auch, da bin ich mir aber nicht sicher. Nur Ford fährt derzeit noch in der "künstlichen" MCity.

Und dann das nächste grosse Problem: Wer haftet dafür ? Wenn mich mein neues automomes Fahrzeug in einen Unfall verwickelt den ICH statistisch gesehen nicht verursacht hätte, für den ich aber als "Fahrzeugführer" verantwortlich gemacht werde - da wäre ich doch 2 mal blöd, ein autonomes Fahrzeug zu benutzen, oder ?

Da sind die Gesetzesgeber gefordert eine Regelung zu finden, hoffentlich dauert es nicht mehr allzu lange.

Wer die Digitalisierung im Flugzeugcockpit mitverfolgt hat, der weiss, dass das Bestreben von Ingenieuren, den Faktor Mensch anhand früherer Unfälle von gewissen Handlungen auszuschliessen, oft selbst zur Unfallursache wurde. Als Beispiel der Lufthansa-Airbus, der in Warschau bei der Landung bei Aquaplaning über das Ende der Landebahn hinausschoss. Der Grund für den Unfall war der Absturz einer japanischen 747, bei der die Piloten in einem Anfall geistiger Umnachtung den Umkehrschub in der Luft aktivierten, weil sie zu hoch und zu schnell anflogen und eigentlich hätten durchstarten müssen, aber das vermeiden wollten weil sie anschliessend nochmal 20 Minuten Warteschleife hätten drehen müssen. Die Ingenieurslösung war, dass jedwedes Bremsen nur möglich war, wenn das Flugzeug gelandet war. Aufgrund des Regens und Aquaplanings bekam die Maschine nach der Landung an den Rädern aber nicht genügend "Spin-Up" - die Räder drehten sich zu langsam, der Computer schloss daraus "wir sind noch nicht gelandet" und die Piloten hatten keine Möglichkeit, die Maschine durch Radbremsen oder Schubumkehr zu verlangsamen - Crash durch Ingenieursversagen.

Interessant, der Vorfall geschah 1993, die Maschine wurde 1990 ausgeliefert. Die Technik ist also über 26 Jahre alt. Frage: wie oft wurde anschließend durch den selben Fehler ein Unfall/Absturz verursacht? Bin in dem Gebiet nicht so bewandert, aber ich vermute mal keiner mehr. Ganz einfach weil die Ingenieure, die ursprünglich diesen Fall nicht berücksichtigt haben (menschliches Versagen sozusagen), die Technik/Software darauf angepasst haben.

Ohne diesem System hätte theoretisch jeder Pilot bei jedem Flug den Umkehrschub einschalten können...

Oder ein anderes, unblutigeres Beispiel aus der Kategorie "Denkste!", ebenfalls von Airbus: zur Zeit des A310 fing Airbus schon stark mit der Computerisierung an. Da man keine Erfahrung hatte legte man die Systeme 3x3-fach redundant aus: 3 verschiedene Computer, mit 3 verschiedenen Betriebssystemen. Damit, so schlussfolgerten die Ingenieure, war man absolut sicher, denn die Panne, die 3 völlig unterschiedliche Systeme gleichermassen betreffen würde, gab es nicht. Bis man eine A310 abends auf dem Vorfeld in Nairobi abstellte und morgens um 11 Uhr zu einem Flug starten wollte, die Maschine aber hartnäckig den Dienst verweigerte: die Tropenhitze der Vormittagssonne hatte das Flugzeuginnere so aufgeheizt, dass alle 3 Systeme ausfielen und sich die Maschine nicht starten lies. Nichts passiert, ausser dass die Denke "wenn wir 3-fache Redundanz haben kann gar nichts passieren" sich als nicht ganz zutreffend erwies. Es gab diesen einen Faktor, der alle Vorkehrungen überging.

Konnte auf die schnelle zu dem Vorfall nichts finden, aber der A310 hatte jedenfalls seinen Erstflug 1983, selbe Frage: wie oft hat sich dieser Vorfall wiederholt?

Interessant auch diese Statistik
Die Absturzhäufigkeit hatte sich durch mechanische/technische Ursachen seit den 50er Jahren kaum verändert. Und das trotz des imensen Anstieges an Computersystemen. So schlecht kann die Technik dann doch nicht sein?


Für Autos bedeutet das: Haufenweise Redundanz, haufenweise Sensorik, haufenweise teure Systeme. Autonome Fahrzeuge werden erheblich teurer werden als selbstgefahrene. Auch das wird sich auf die Akzeptanz auswirken. Wer wird sich einen Lada zum Preis eines Mercedes kaufen ? Nicht viele, denke ich.

Autos sind jetzt schon vollgestopft mit Sensorik und "teuren" Systemen, auf die paar mehr fürs autonome Fahren kommt es auch nicht mehr drauf an.

Womit ich bei dem Punkt bin, den Porsche-Chef Müller schon angesprochen hat: Autonomes Fahren ist ein Hype.
Es wird teilautonome Systeme und ausgeklügelte Assistenten geben, die hoffentlich Auffahrunfälle, Parkrempler und Übermüdungsunfäle durch Verlassen der Fahrspur verhindern.

Hype? OK, sollen wir den Thread in 5-10 Jahren nochmal ausgraben? ;)
Das Herr Müller (damals noch Porsche Chef oder?) gegen autonomes Fahren ist, ist doch klar... wer kauft sich noch einen Sportwagen um autonom von A nach B zu fahren?

Diese Systeme die du anspricht gibt es doch schon alle...

Klar, derzeit ist die Technik noch bei weitem nicht serienreif, und Google sagt das auch selbst.
Aber die bisherige Entwicklung ist schon beeindruckend, was alles in der verhältnismäßig kurzen Zeit erreicht wurde.

Die Sensorik wird immer genauer und besser, die Software lernt unaufhaltsam dazu.
Vollautonomes Fahren wird kommen, und mMn frühe also so manch einer denkt. (Hoffe ich zumindest :banana:)

PS.: Bitte nicht persönlich nehmen Soron :)
 
Den Artikel im Spiegel hatte ich damals auch gelesen. Wir hatten daraufhin auch eine interessante Diskussion bei der wir von der Verantwortung für das Fahrzueg zur Verantwortung für die Entscheidung kamen - also ethische Fragen.
Und das ist noch ein ganz anderes Minenfeld.

Ich stelle nochmal ein Beispiel auf:
Ich bin mit meinem 12-jährigen Kind auf dem Beifahrersitz innerorts mit 50 km/h unterwegs.
Eine Gruppe Grundschüler steht am Strassenrand, und ein Kind läuft vor mir auf die Strasse. Auf der Gegenüberliegenden Fahrbahn kommt mir ein LKW mit Auflieger (der typische 38-Tonner) mit 50 km/h entgegen.
Der Computer errechnet, dass der Platz zum Bremsen bicht mehr reicht - und nun ?
Wird er nach rechts ausweichen, und statt eines Kindes eine ganze Gruppe überfahren ?
Wird er das Kind überfahren, um die Fahrzeuginsassen bestmöglich zu schützen ?
Oder wird er nach links ausweichen, frontal gegen einen LKW, um das unfallverursachende Kind zu schützen, auf meine und meines Kindes kosten, weil wir als einzige durch die passiven Systeme des Autos (Airbag etc) eine Art Schutz haben ? Aber andererseits der Aufprall auf einen viel schwerern LKW bei einer kombinierten Geschwindigkeit von 100 Km/h wesentlich schwerer wiegt als die Kollision mit einem Kind bei 30 oder 40 (nehmen wir an wir können noch ein bisschen Geschwindigkeit von unseren 50 km/h wegbremsen vor der Kollision)?
Wie würde der Computer entscheiden, wie würden sie entscheiden ? Würden sie ein Auto kaufen von dem sie wüssten, dass es im Zweifelsfall sie und ihre Beifahrer opfert, um Fussgänger zu schützen ?

Es gibt Fragen, auf die es nur falsche Antworten gibt :)
 
Als würde ein Mensch in einer solchen Situation ausschließlich korrekt entscheiden.
 
Ich stelle nochmal ein Beispiel auf:
Ich bin mit meinem 12-jährigen Kind auf dem Beifahrersitz innerorts mit 50 km/h unterwegs.
Eine Gruppe Grundschüler steht am Strassenrand, und ein Kind läuft vor mir auf die Strasse. Auf der Gegenüberliegenden Fahrbahn kommt mir ein LKW mit Auflieger (der typische 38-Tonner) mit 50 km/h entgegen.
Der Computer errechnet, dass der Platz zum Bremsen bicht mehr reicht - und nun ?
Wird er nach rechts ausweichen, und statt eines Kindes eine ganze Gruppe überfahren ?
Wird er das Kind überfahren, um die Fahrzeuginsassen bestmöglich zu schützen ?
Oder wird er nach links ausweichen, frontal gegen einen LKW, um das unfallverursachende Kind zu schützen, auf meine und meines Kindes kosten, weil wir als einzige durch die passiven Systeme des Autos (Airbag etc) eine Art Schutz haben ? Aber andererseits der Aufprall auf einen viel schwerern LKW bei einer kombinierten Geschwindigkeit von 100 Km/h wesentlich schwerer wiegt als die Kollision mit einem Kind bei 30 oder 40 (nehmen wir an wir können noch ein bisschen Geschwindigkeit von unseren 50 km/h wegbremsen vor der Kollision)?
Wie würde der Computer entscheiden, wie würden sie entscheiden ? Würden sie ein Auto kaufen von dem sie wüssten, dass es im Zweifelsfall sie und ihre Beifahrer opfert, um Fussgänger zu schützen ?

Es gibt Fragen, auf die es nur falsche Antworten gibt :)
Auf jeden Fall darf die Anwtort nicht lauten, dass man anderen Menschen, den Komfort eines atonomen Fahryeugs verwehrt, nur wegen Fälle die ein mal in Milliarden Fahrkilometern auftreten.
Ist Trunkenheit am Steuer nicht immernoch eine der Hauptursachen für Unfälle? Oder Selbstüberschätzung bzw. zu hohe Geschwindigkeit? Durch Vermeiden solcher Fälle hätte man also schon unzählige Menschenleben gerettet...
 
Dass eine solche Funktion klarerweise auch andere Änderungen mit sich bringt, sollte ja wohl Jedem klar sein.
 
@elchupacabre
Diese Frage stellt sich überhaupt nicht, ein Mensch würde instinktiv handeln, und das können Computer nicht, unabhängig ob das für ihn oder andere korrekt ist. Diese Entscheidung fällt dein kognitiver Apparat auf Grundlage deiner Individualität und eben nicht auf Grundlage von Logik und einprogrammierten Verhaltensmöglichkeiten oder auch ethischen Berücksichtigungen. Der Umkehrschluss ist, dass du allein, sei es auch unverschuldet, für dein eigenes Handeln stehst. Eine Maschine kann niemandem gegenüber Rechenschaft ablegen, es bleibt also nur der Rückgriff auf den Fahrzeugführer bzw. den Hersteller, für eine Handlung die keiner von Beiden, aktiv durchgeführt hat.
Wieso muss da irgendwer Rechenschaft ablegen? Soron hat doch absichtlich eine "Patt Situation" ausgeführt.
Es gibt doch auch jetzt Unfälle wo kein klarer Schuldiger fest steht, o.ä.
In Soron's Fall, so "unfair" und "hart" das auch klingt, ist die Schuld auch sogar eindeutig: Das Kind, bzw. dessen Eltern die offenbar nicht aufgepasst haben...
Vieleicht liegt das daran dass ich selbst Softwareentwickler bin, aber ich sehe keinen unanfechtabrem Grund, mehr auf Instinkte zu vertrauen als auf Logik. Ganz davon abgesehen dass das menschliche Gehirn auch auf eine Form von Logik beruht, nur dass die Informationen die es nutzt, nicht immer mit denen übereinstimmen, die wir bewusst zu haben glauben und wahrnehmen.

Ob man einer bestimmten Software X vertrauen kann, steht auf einen anderen Blatt. Da werden sich die Hersteller dieser Fahrzeuge einige Zeit lang bewähren müssen, bis solch ein Vertrauen aufgebaut ist, wie z.B. bei den Autopiloten in Flugzeugen usw.


@DragonTear
Deine Beispiele sind denkbar schlecht gewählt, denn jemand der sich selbst überschätzt und zu schnell fahren will wird das auch tun, selbst wenn sein Wagen autonom fahren kann.
Nein, denn wenn das Fahrzeug sowieso in der Lage wäre, autonom zu fahren, dann wird es auch unter menschlicher Kontrolle, dafür sorgen dass man Geschwindigkeitsbeschränkungen einhält usw. (ausser natürlich in Notfällen). Das selbe gilt, wenn es fest stellt dass der Fahrer Schlangenlinien fährt und offenbar unter Alkohol fährt. Solche Systeme werden wahrscheinlich auch lang vor voll-autonomen fahrzeugen kommen.
Sicher, manche Menschen werden sowas ablehnen, aber da ist der Gesetzgeber gefragt.

Wenn das ganze aber mal funktioniert, gibt es auch keinen Grund weshalb man sich nicht vom Auto, aus der Kneipe nach hausen fahren lassen soll. Solch ein Stadium wird aber natürlich sicher noch 1-3 Jahrzehnte dauern. Würde aber wetten dass die meisten jüngeren von uns, das noch erleben werden.


Ebenso hat Trunkenheit nichts am Steuer verloren, egal ob der Wagen manuell gesteuert oder autonom gefahren wird. Jeder von uns nimmt ein gewisses abstraktes Risiko in Kauf sobald er Teil des Straßenverkehrs wird und dazu gehört auch der Tod, aber eben das ist Ausdruck unserer Freiheit, das abtreten von Verantwortung an den Computer geht gleichzeitig mit dem Wegfall von Freiheiten einher und ist eine Abwägungsfrage.
Mit dem Kernargument, der Sicherheit, beschneidet man auch durch VDS und Massenüberwachung Freiheiten und tangiert Schutzrechte mit recht zweifelhaften Erfolg.
Glaube hier prallen zwei völlig unterschiedliche Denkweisen aufeinander (genau so wie in den Datenschutzdiskusionen die ich oft geführt habe). Denke da weiter zu schreiben macht wenig Sinn...

Ob die Fahrweise eines Computers wirklich sicherer ist als die des Menschen ist bisweilen blanke Phantasie und das wird von den oben genannten Zahlen unterstrichen.
Mit Betonung auf "bisweilen" wenn du damit "bisher" meinst.


Diese ganze Thematik stellt wie schon von anderen ausgeführt, den Gesetzgeber vor sehr große Herausforderungen. Ich hoffe nur sehnlichst dass man nicht den Schwanz einziehen wird.
Allerdings ahne ich dass wir hier mal wieder konservativer agieren werden als die USA... Ein weiterer Bereich wo DE hinterher zu hinken droht... :/
 
Zuletzt bearbeitet:
Auf jeden Fall darf die Anwtort nicht lauten, dass man anderen Menschen, den Komfort eines atonomen Fahryeugs verwehrt, nur wegen Fälle die ein mal in Milliarden Fahrkilometern auftreten.
Ist Trunkenheit am Steuer nicht immernoch eine der Hauptursachen für Unfälle? Oder Selbstüberschätzung bzw. zu hohe Geschwindigkeit? Durch Vermeiden solcher Fälle hätte man also schon unzählige Menschenleben gerettet...

Tatsächlich, in Milliarden Kilometer mal ? Das halte ich für ein Gerücht. Google's Versuchsauto hat grade mal etwas über eine Million Kilometer drauf und ich las neulich einen Artikel, dass ein wiederkehrendes Problem bei Google's Auto das ist, dass die Leute vor dem Auto auf die Strasse rennen um zu sehen, ob es tatsächlich bremst. Idiotisch, ist aber so.
Das wird bei einem breitflächigen Einsatz von autonomen Fahrzeugen nicht anders sein: Wenn man "weiss" dass das Auto auf jeden Fall ohne Verzögerung voll in die Eisen steigt, dann werden verschiedene Leute aus Vorsatz (Ein Fußgänger hat keine Lust zu warten und latscht über die Strasse, die Autos sollen halt bremsen) oder Jux (Kinder, die's total lustig finden wenn die Autos links und rechts zum stehen kommen) vor die Autos rennen.
 
Den Artikel im Spiegel hatte ich damals auch gelesen. Wir hatten daraufhin auch eine interessante Diskussion bei der wir von der Verantwortung für das Fahrzueg zur Verantwortung für die Entscheidung kamen - also ethische Fragen.
Und das ist noch ein ganz anderes Minenfeld.

Ich stelle nochmal ein Beispiel auf:
Ich bin mit meinem 12-jährigen Kind auf dem Beifahrersitz innerorts mit 50 km/h unterwegs.
Eine Gruppe Grundschüler steht am Strassenrand, und ein Kind läuft vor mir auf die Strasse. Auf der Gegenüberliegenden Fahrbahn kommt mir ein LKW mit Auflieger (der typische 38-Tonner) mit 50 km/h entgegen.
Der Computer errechnet, dass der Platz zum Bremsen bicht mehr reicht - und nun ?
Wird er nach rechts ausweichen, und statt eines Kindes eine ganze Gruppe überfahren ?
Wird er das Kind überfahren, um die Fahrzeuginsassen bestmöglich zu schützen ?
Oder wird er nach links ausweichen, frontal gegen einen LKW, um das unfallverursachende Kind zu schützen, auf meine und meines Kindes kosten, weil wir als einzige durch die passiven Systeme des Autos (Airbag etc) eine Art Schutz haben ? Aber andererseits der Aufprall auf einen viel schwerern LKW bei einer kombinierten Geschwindigkeit von 100 Km/h wesentlich schwerer wiegt als die Kollision mit einem Kind bei 30 oder 40 (nehmen wir an wir können noch ein bisschen Geschwindigkeit von unseren 50 km/h wegbremsen vor der Kollision)?
Wie würde der Computer entscheiden, wie würden sie entscheiden ? Würden sie ein Auto kaufen von dem sie wüssten, dass es im Zweifelsfall sie und ihre Beifahrer opfert, um Fussgänger zu schützen ?

Es gibt Fragen, auf die es nur falsche Antworten gibt :)

Immerhin hat ein Autonomes Auto die Möglichkeit Direkt zu bremsen. Ein Auto braucht von 50km/h ca 13m zum stehen. Wenn man davon ausgeht, dass das Auto sofort reagiert würde es also schneller stehen als ein Mensch überhaupt reagieren könnte.
Das würde bedeuten, dass bei einem Mensch am Steuer das Kind, was sagen wir mal 15m vor dem Auto auf die Straße läuft in jedem Fall tod/verletzt wäre, bevor dieser Überhaupt reagiert. Was kann das Autonome Auto in der Situation schlechter machen als der Mensch?
Und selbst wenn das Kind noch näher am Auto auf die Staße laufen würde könnte das Auto in wenigen Millisekunden anfangen auszuweichen.
Für den Fall, dass es wirklich keine Möglichkeit gibt auszuweichen oder zu bremsen kann es ja einfach feste Regeln geben, nach denen das Auto entscheidet, welcher Unfall die geringsten Folgen hätte. Aber bei einem gut funktionierenden autonomen Auto kann ich mir nicht vorstellen, dass es zu solchen Situationen kommen kann. Das Auto muss eben immer so fahren, dass es für alle Eventualitäten eine Möglichkeit gibt zu reagieren. Diese können ja schon preventiv berechnet werden. Wenn es nicht möglich ist zu reagieren, falls zwischen zwei Autos ein Kind hinter einem Ball hergelaufen kommt, darf eben nicht so schnell/nah daran vorbeigefahren werden.
 
Der Mensch übergibt die Verantwortung für sein Wohl (und auch das der andern Verkehrsteilnehmer)
an einen Blechkopp. Auch bei bester und Redundanter Auslegung kann man Fehler nicht ausschließen (kann man bei keinen System biologisch wie technisch).
 
Ein Autonomes Auto kann sich aber nicht von einem Smartphone, vom Radio etc. ablenken lassen und reagiert deutlich schneller als ein mensch. Natürlich wird es Unfälle geben aber ich denke es werden mit Serienreifen Autonomen Autos sehr viel weniger sein, als wenn menschen fahren würden.
 
Ich halte davon überhaupt nichts. Ich will selbst fahren. Mein Leben einer KI anvertrauen? Niemals. Ganz abgesehen vom Spaßfaktor.

Zum Thema Sicherheit geht es weniger um die Sicherheit an sich, sondern um die Verantwortung. Wer haftet bei technischen Defekten? Möchte man wirklich sein Leben einer Software anvertrauen (die zudem manipuliert werden kann)?
 
Zuletzt bearbeitet:
Ich halte davon überhaupt nichts. Ich will selbst fahren. Mein Leben einer KI anvertrauen? Niemals. Ganz abgesehen vom Spaßfaktor.
Was ist daran Spaß z.B. im Stop and Go zur Rushhour durch die Stadt zu tuckern?

Seien wir doch erhlich. Die meiste Zeit, ist den meisten Menschen, das Fahren nur eine lästige Pflicht.
 
Zuletzt bearbeitet:
Tatsächlich, in Milliarden Kilometer mal ? Das halte ich für ein Gerücht. Google's Versuchsauto hat grade mal etwas über eine Million Kilometer drauf und ich las neulich einen Artikel, dass ein wiederkehrendes Problem bei Google's Auto das ist, dass die Leute vor dem Auto auf die Strasse rennen um zu sehen, ob es tatsächlich bremst. Idiotisch, ist aber so.
Das wird bei einem breitflächigen Einsatz von autonomen Fahrzeugen nicht anders sein: Wenn man "weiss" dass das Auto auf jeden Fall ohne Verzögerung voll in die Eisen steigt, dann werden verschiedene Leute aus Vorsatz (Ein Fußgänger hat keine Lust zu warten und latscht über die Strasse, die Autos sollen halt bremsen) oder Jux (Kinder, die's total lustig finden wenn die Autos links und rechts zum stehen kommen) vor die Autos rennen.

Und das soll jetzt ein Argument GEGEN autonomes fahren sein? Die Dummheit einiger Menschen?

Vorallem ist das ohne auf den Verkehr zuachten auf die Straße zulaufen jetzt schon an vielen Stellen normal. Ich habe letztens Vater + 2 Kinder gesehen die über die rote Fußgängerampel auf einer vielbefahrenen Kreuzung gefahren sind (Fahrrad). Sollte es tatsächlich öfter vorkommen mit dem autonomen fahren dann kann man von natürlicher Selektion sprechen. Denn sorry, wer so leichtfertig mit seinem Leben umgeht ist dann eben doch selbst schuld wenn etwas passiert.
 
Autonomes fahren mag ja Stand heute noch nicht so weit sein, aber wer weiß schon wie es in 5y oder 10y aussieht. Aktuelle Fortschritte in der Sensortechnik (zB Briefmarkengrossen Radarchips) und der CPU Power (siehe NVidias Ansätze) sind doch recht vielversprechend.
 
Was ist daran Spaß z.B. im Stop and Go zur Rushhour durch die Stadt zu tuckern?

Seien wir doch erhlich. Die meiste Zeit, ist den meisten Menschen, das Fahren nur eine lästige Pflicht.

Nicht jeder lebt in einer Weltmetropole. Und woran machst du fest, dass für die meisten Menschen Fahren nur eine lästige Pflicht ist? Mein Auto und das Fahren ist eine große Leidenschaft von mir, und ich glaube damit stehe ich keinesfalls alleine da.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh