Gesetzesentwurf: Autonomes Fahren ist in Deutschland vorerst nicht vorgesehen

homann5

Semiprofi
Thread Starter
Mitglied seit
10.10.2007
Beiträge
2.427
<p><img src="/images/stories/logos-2015/bundesregierung.png" alt="bundesregierung" itemprop="image" style="margin: 10px; float: left;" />Auf dem Weg hin zum autonomen Auto sind nicht nur technische Probleme zu beseitigen, auch der notwendige rechtliche Rahmen fehlt vielerorts - so auch in Deutschland. Über entsprechende Gesetzesänderungen wird bereits seit geraumer Zeit diskutiert, heute nun hat die Bundesregierung einen Entwurf auf den Weg gebracht. Doch ausgerechnet das echte autonome Fahren erlaubt der nicht.</p>
<p>Denn der hierfür entscheidende Punkt ist die Verantwortung und die Frage, wer die trägt. Nach dem Willen der Bundesregierung soll die - <a href="index.php/news/hardware/auto/39317-autonomes-fahren-bundesjustizminister-lehnt-aenderung-der-haftung-ab.html"...<br /><br /><a href="/index.php/news/hardware/auto/41716-gesetzesentwurf-autonomes-fahren-ist-in-deutschland-vorerst-nicht-vorgesehen.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der Titel passt nur sehr bedingt zum Inhalt des Artikels...
Am Ende hat das Gesetz keine Auswirkungen, außer dass man vorerst keine Autos ohne Lenkrad, etc. auf die Straße schicken kann,a ebr ganz so weit ist man natürlich nicht von der Technik her. Darauf hat die Gesetzgebung noch einige Jahre Zeit zu reagieren.
Das mit der Verantwortung ista uch irgendwo logisch, denn irgendwer muss halt verantwortlich sein, und die Firmen dafür sofort in Bedrängnis zu bringen käme einem Verbot gleich.
 
Zuletzt bearbeitet:
Tja und so macht das Gesetz alles zunichte womit unsere deutschen Autohersteller geld verdienen wollen! Wenn das Auto bzw der Hersteller nicht die Verantwortung übernimmt, wird sie das in der Masse nicht verkaufen können! Somit wird es nie diesen Schritt geben dass alle iwann autonom fahren können. Aber vllt lernt man ja daraus!
 
Dieser Schritt ist noch gut 10 Jahre entfernt.
Das will und kann atm. noch niemand in großer Masse verkaufen, genauso wie noch keine Firma dafür die volle Verantwortung übernehmen kann und will.
 
Dann ist es kein echtes "Autonomes Fahren", sondern irgend etwas dazwischen.
Allein der Satz "„Wir stellen Fahrer und Computer rechtlich gleich."- ein autonomes System was dem Menschen überlegen ist, ist nicht gleich, sonst wäre es in den Handlungen und Erkenntnissen nicht überlegen. Es rechtlich gleichzusetzen ist völliger Humbug.
Alleine die Tatsache das autonome Systeme nicht belangt werden, somit die Hersteller, in irgendeinem Rechtssystem bei Unfällen, sofern der menschliche Fahrer nicht eingegriffen hat, wenn er könnte, hat nichts mit Gleichstellung zu tun.
Es ist keine Gleichstellung und keine Gleichbehandlung.

Alleine der nächste Satz macht doch deutlich worum es geht, nämlich Geld: "Aber nicht nur bei Unfällen trägt der Fahrer die Verantwortung, auch Geschwindigkeits- und andere Verstöße gehen zulasten seines Kontos."
Staatsdiener muss halt irgendwen schröpfen, damit es weiterhin Einnahmen gibt, mit dem er dann xy rechtfertigen kann.
Passt halt auch zum neuesten Bußgeldkatalog, mit erhöhten Bußgeld in allen Bereichen - sozusagen der letzte Atemzug.

Ich sehe bei diesem Entwurf nichts anderes als die Angst und das Misstrauen vor höherer Intelligenz. Die Angst jene Automobilhersteller zu sehr in die Mangel zu nehmen da diese sonst nicht geneigt sind die Produkte rauszubringen.
Dem Schuld wird dem Fahrer gegeben, so können auch weiterhin die Versicherungen hohe Beiträge verlangen, die sie nicht könnten, wäre der Fahrer wörtlich aus dem Schneider.
Eine Art blackbox ist ein Eingriff ins Datenschutzrecht und in die Privatsphäre.

Die Trottel der Bundesregierung gehören entlassen. Alleine die ganze Bundesebene führt das Konzept der echten Liberalität und Demokratie ad absurdum.
 
Tja und so macht das Gesetz alles zunichte womit unsere deutschen Autohersteller geld verdienen wollen! Wenn das Auto bzw der Hersteller nicht die Verantwortung übernimmt, wird sie das in der Masse nicht verkaufen können! Somit wird es nie diesen Schritt geben dass alle iwann autonom fahren können. Aber vllt lernt man ja daraus!
Naaaaja.. Klar, mit der Aussage "wir übernehmen jegliche verantwortung" könnten die Hersteller sicher einige Zweifler ins Boot holen, aber was hätte das für Auswirkungen?
Meine _wenn_ dann irgendwann mal was passiert - Technik ist nicht unfehlbar, auch wenn sie besser als der Mensch wäre/ist - dann muss der Softwareentwickler oder der Firmenchef wegen fahrlässiger Tötung ins Gefängniss?
Das würde niemals gut gehen, bzw. aus diesem Grund würden die Unternehmen sehr zögern, dieses Argument zu bringen.

Ganz objektiv betrachtet ist es mal wieder die altbekannte Tatsache dass die Gesetzgebung dem Stand der Technik mehrere Jahre hinterher hinkt.
Eigentlich bräuchte man eine Behörde die genau weiss was technisch möglich ist, und die die Fälle dann untersucht um zu sagen ob fahrlässigkeit o.ä. vorlag oder ob es als höhere Gewalt einzustufen ist weil es niemand verhindern konnte.
Sowas ist aber wohl vorerst utopisch...

Alleine die ganze Bundesebene führt das Konzept der echten Liberalität und Demokratie ad absurdum.
Lolwat? Sollen wir uns wieder zersplittern wie vor Napoleons Zeiten?
"Echte liberalität" wiederspricht jedem System eines Staates denn dabei gibt jeder Freiheiten auf, zum Wohle der Gesellschaft.
 
Zuletzt bearbeitet:
Ich frag mich ja wo das hinführt ....

Wenn es nun autonomes Fahren gibt, und zwei solche Fahrzeuge kurz vor einem Unfall sind... In einem Auto sitzt Mutti mit 3 Kindern, im anderen Auto Michael und seine 4 Freunde. Links ist eine Schlucht, es gibt keine sicheren Ausweichmöglichkeiten. Eine für alle tödliche Kollision ist nur vermeidbar wenn eines der Fahrzeuge in die Schlucht zieht, und somit der primäre Unfall verhindert wird.
Also entweder sterben alle, oder nur eines der Autos wird "geopfert"

Woran macht das System fest wer im Fall des Falles "zu opfern" wäre? Sind 4 Leute im Auto "weniger wert" als 5 Leute? Wie will man so etwas moralisch gestalten? Kann man das System da nur in 1 und 0 denken lassen? Wer soll sowas denn entscheiden?
 
Zuletzt bearbeitet:
Ich denke du hast meinen Satz unter dem Kontex nicht verstanden, was ich mit der Bundesregierung meine etc.; halb so wild, habe es auch nicht ausführlich erklärt, da keine Lust; ist auch ein Hardwareforum :d
In die Extreme gehen und es mit einem Staatssystem der französischen Nachkriegszeit zu vergleichen ist kein Argument, sondern manipulative Argumentation.



Die "moral-machine" passt doch hervorragend zu diesen Gedankenkonstrukten Moral Machine
 
Oha interessante Seite, danke Hyrasch :)

Edit: Oh mann ist das heftig, fühl mich wie Gott, aber auch richtig mies dabei! :fresse2:
 
Zuletzt bearbeitet:
Ich frag mich ja wo das hinführt ....

Wenn es nun autonomes Fahren gibt, und zwei solche Fahrzeuge kurz vor einem Unfall sind... In einem Auto sitzt Mutti mit 3 Kindern, im anderen Auto Michael und seine 4 Freunde. Links ist eine Schlucht, es gibt keine sicheren Ausweichmöglichkeiten. Eine für alle tödliche Kollision ist nur vermeidbar wenn eines der Fahrzeuge in die Schlucht zieht, und somit der primäre Unfall verhindert wird.
Also entweder sterben alle, oder nur eines der Autos wird "geopfert"

Woran macht das System fest wer im Fall des Falles "zu opfern" wäre? Sind 4 Leute im Auto "weniger wert" als 5 Leute? Wie will man so etwas moralisch gestalten? Kann man das System da nur in 1 und 0 denken lassen? Wer soll sowas denn entscheiden?

Das ist natürlich mal wieder ein toll konstruiertes Beispiel, bei dem ein positives Ergebnis nicht möglich ist.
Was dazu zu sagen ist:
1. Wenn die frontal aufeinander krachen, sind ziemlich sicher nicht alle tot. Das ist nicht mehr die Realität bei PKW.
2. Selbst wenn 1. nicht zutrifft: Man sieht nie im Leben, wer da wo im Auto sitzt, wenn man nicht mal Zeit zum Bremsen hat.
3. Kann ein autonomes System im Prinzip sogar vor deiner an den Haaren herbei gezogenen Situation reagieren, und das auch noch wesentlich schneller.
4. Lassen wir mal Argument 1 bis 3 außen vor: Todesfall vorprogrammiert. Was ist jetzt eigentlich positiv daran, dass ein Mensch die "Entscheidung" über Leben und Tod fällt?
5. Wofür soll das jetzt sprechen? Es werden (auch bei Fehlern der Systeme) Unfallrückgänge im hohen zweistelligen %Bereich erwartet. Tödliche Unfälle wird es wohl weiter geben, aber halt weniger. Ob mit oder ohne Gewichtung von Leben (Kleinkinder vs. Tatterkreise, .....).


Zum Gesetz:
Das ist weder Angst vor der Industrie noch technischem Unverständnis der Politik geschuldet. Das öffnet erstmal der Autoindustrie Tür und Tor, solche Assistenten zu verbauen, denn die müssen ja nicht haften. Dann ist es vielleicht auch bezweckt, könnte ja sein...:hail:
 
Wenn eine Maschine sowas nicht entscheidet ist die Antwort ganz simpel: Es wäre menschlich!

Ich lasse mich zumindest lieber von nem Menschen wegen Unfähigkeit/dummheit/wasauchimmer überfahren, als von einem System dass das jetzt halt "aus Gründen" entschieden hat.
 
Wenn eine Maschine sowas nicht entscheidet ist die Antwort ganz simpel: Es wäre menschlich!

Ich lasse mich zumindest lieber von nem Menschen wegen Unfähigkeit/dummheit/wasauchimmer überfahren, als von einem System dass das jetzt halt "aus Gründen" entschieden hat.


Und wo ist am Ende der Unterschied?
 
@MadVector
Du lässt dich also lieber von einem besoffenen totfahren als von einem Computer, der entschieden hat dein Leben zu opfern damit 3 Kinder und ihre Mutter weiterleben?
 
Wenn man seine Signatur betrachtet, ist ihm seine persönliche Sicherheit auf der Straße glaub nicht gaaanz so wichtig wie er hier tut ;)

@Hilikus: Schön geschrieben!
 
Zuletzt bearbeitet:
Die Gesetze sollen erstmal auch nur ne Grundlage schaffen. Bislang war sowas ne rechtliche Grauzone.

Und die Gesetze kann man recht leicht wieder ändern. Das ist jetzt erstmal kein Weltuntergang sondern gesunde Skepsis.
Autonomes Fahren braucht noch Zeit. Erstmal ruhig angehen lassen...

Ich würde erwarten, dass das Auto mein Leben höher stellt. So wie ich es auch machen würde. Reiner Überlebensinstinkt.
Moralisch eventuell verwerflich aber ganz klar nachvollziehbar.
 
Zuletzt bearbeitet:
Du gehst vom letzten Modell eines intelligenten was-auch-immer aus, also Intelligenz wie die unsere - wie auch immer diese nun von uns definiert ist oder es andere Lebewesen, hier oder nahe der Betelgeuse, definieren.
Es geht aber nur in die Richtung, vielmehr um deep learning: https://blogs.nvidia.com/blog/2016/07/29/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/ danke nvidia :haha:
Ohne alles durchzulesen: Ein Modell was unseren neuronalen Netzwerken ähnelt aber ungleich unseren Neuronen, diskret ist.
Wie in der Physik halt: diskreter Punkt a kann nur Punkte in seinem unmittelbaren topologischen Raum erreichen, da nicht zusammenhängend; so auch die deep learning-Neuronen.
"The final output is then determined by the total of those weightings.", wir machen es eigentlich nicht anders, wir wägen ab, von welchen Faktoren auch immer wir es abhängig machen.
Nach neuesten Erkentnissen haben wir so gut wie alle Entscheidungen bereits unbewusst vorher getroffen, auch wenn der Anschein steht wir entscheiden bewusst in Bruchteilen von Sekunden; z.B. beim Trolley-Problem.

Folglich müsste man deep learning uns unterlegen betrachten. Deep learning muss sich nebenbei aber nicht an den Supermarkt-Einkaufszettel erinnern, oder Omas Ratschlag. Menschen versuchen weiterhin diese Art der Netzwerke zu verbessern. In naher Zukunft kann/wird es uns ebenbürtig sein.

Da es nun deep learning ist, sind jene Entscheidungen nicht irgendwie magisch oder transzendent sondern solche die auch wir Menschen machen "könnten".
Die Vorstellung das Lebewesen oder was-auch-immer, mit echter höherer Intelligenz, besser Entscheidungen treffen, zu unseren Gunsten, ist absolut lächerlich. :haha:
Nach unseren Maßstäben sind wir auch unglaublich "intelligenrter" und gebildeter als noch vor 10000 Jahren, hauen uns aber dennoch die Birne ein und sorgen für Ungerechtigkeit.
Somit ist es momentan schlussendlich egal ob von Menschen oder vom systematischer Algorithmus überfahren - der Mensch versucht die Anzahl der Todesopfer zu minimieren.
 
Was willst du jetzt insgesamt damit sagen?
Wenn ich die Wahl haben zwischen 2 autonomen Autos, eins welches das Überleben der Insassen priorisiert und eins welches moralisch richtig handelt, würde ich ersteres kaufen.
Moral bringt mir nämlich wenig wenn ich Tod bin.
So werden die meisten Leute entscheiden.
Ist sehr pragmatisch
 
Ich hab auf deinen Gedankengang geantwortet, bei dem du jene Handlungen bewertest und zur Fragestellung beigetragen "was wäre denn jetzt besser".
Warum du jetzt wieder das Gleiche schreibst und plötzlich davon ausgehst was "richtige" Entscheidungen sind :fresse2:
 
So wirklich autonom ist es in dem aktuellen Zustand ja auch noch nicht- da muss noch viel Arbeit geleistet werden um in Regionen zu kommen wo man auch ohne Todesangst das Auto eigenständig fahren lassen kann.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh