Einzelnen Beitrag anzeigen
Alt 14.03.2019, 09:30   #5002
ShortSqueeze
Benutzer
 
Registriert seit: 10/2005
Beiträge: 6.452
Standard

Zitat:
Zitat von zournyque Beitrag anzeigen
sagen es ist aktives Tumorgewebe dann labele ich es auch dementsprechend bin ich schon besser als ein menschlicher Experte.
ja, du labelst es. Bringst also der Software etwas bei, eine Situation bei. Und du bewertest sie. Tumorgewebe schlecht, normales Gewebe gut.
Genauso wirst du einer Autofahr KI beibringen müssen, wie ein Hund aussieht, und daß Hund eben weniger wertvoll ist als Kind.
Momentan kann allerdings keine einzige Software in den Autos ein Kind auf einem Bobbycar zweifelsfrei und sicher genug erkennen, also wir reden hier von Feinheiten von denen wir noch so weit weg sind.
Wie gesagt - die "KI" von Tesla hält ja einen Werbeaufdruck auf einem weissen LKW für ein Verkehrsschild.

Die Diskussion über mehr Autonomie gibt es ja momentan im Fall Boeing.
Hier hat ja der Versuch, das Air France Unglück, wo die Piloten jämmerlich versagt hatten und einen Stall wegen eines kaputten Fahrtmessers nicht erkannt hatten zu einem neuen System bei der 737 Max geführt.
Das misst automatisch den Anstellwinkel und regelt den Pitch runter wenn der Sensor einen Stall misst und "überstimmt" den Piloten.
Tja, leider war jetzt offenbar 2x dieser Sensor kaputt und hat wohl die letzten 2 Abstürze verursacht. Piloten waren wohl chancenlos.
Ich bin selber Hobby-Pilot (aber 300h im Jahr) und glaub mir, ein Autopilot bei einem Flugzeug ist ungefähr um Faktor 100.000 einfacher zu programmieren als etwas ähnliches in einem Auto.
In der Luft sind alle Hindernisse (ausser im Luftraum E) mittels Transponder gelabelt und können eindeutig mit einer GPS Position und Track erkannt werden. Das sind traumhafte Bedingungen. Es wird dir in 12km Höhe nicht aufeinmal ein Kind über deinen Weg laufen.
Trotzdem passieren noch solche Sachen wir aktuell mit der 737 Max.

Man kann natürlich argumentieren, daß Menschen auch Fehler machen und eine gewissen Zahl an Ausfällen sozusagen OK ist, sobald der Autopilot besser ist als ein Mensch.
Aktuell ist das noch nicht der Fall, in Teslas z.B. sterben mehr Menschen als in anderen vergleichbaren Autos.
https://medium.com/@MidwesternHedgi/...r-433670ddde17
Elon Musk lügt (wie fast immer) wenn er meint, daß Tesla so sicher ist.
ShortSqueeze ist offline   Mit Zitat antworten