"Zugeben" ist insofern falsch, da sie es nie bestritten haben. Sie haben es nur nicht an die große Glocke gehängt.
Faktisch kommt FSD ohne diese Art von Unterstützung aber nicht aus, weil die Realität eben mehr Überraschungen kennt als sich ein noch so großes neuronales Netz ausdenken kann. Teslas FSD hat sich (erstaunlicherweise) jahrelang mit amerikanischen Schulbussen schwer getan. Was ein eigentliches leichtes Problem ist wenn man es mit den selteneren Situationen vergleicht, die im Straßenverkehr aber immer wieder vorkommen: Zum Beispiel eine gesicherte Unfallstelle, wo Polizisten den Verkehr mit winkenden Armen und Handzeichen auf falschen Spuren und an dann nicht mehr gültigen Verkehrszeichen herum leiten.
Solche Situationen sind so speziell und das Verhalten der Personen und Verkehrsteilnehmer ist so individuell, dass ich da keiner AI trauen würde, auch wenn sie mit tausenden solcher Situationen trainiert wurde(*). Im Chaos des Unerwarteten ist das menschliche Gesamtverständnis kaum nachzuahmen. Daher macht es durchaus Sinn für solch seltene Situation ein real menschliches "Backup" zu nutzen. Da muss die AI nur noch sicher melden können, dass sie den Durchblick verloren hat. Und wirtschaftlich ist das auch, sofern die AI nur selten darauf zurück greifen muss.
(*) Bei der Funktionsweise von neuronalen Netzen wäre es sogar sehr gefährlich ein Netz mit Umleitung-um-Unfälle-Situationen zu trainieren. Das dort erlernte (normalerweise regelwidrige) Verhalten würde dann zu einer grundsätzlichen Handlungsoption. Zur technisch sicheren Lösung bräuchte man ein zweites Netz sowie eine wirklich sichere Situationserkennung.
PS: Ein artverwandtes Problem habe ich schon bei Teslas FSD gesehen, dem anscheinend antrainiert wurde, auf Blaulicht zu achten. Nur blöd wenn der Tesla dann unvermittelt auf dem Highway auf der rechten Spur anhält, bloß weil auf einer Straße neben dem Highway zwei Polizeiwagen mit Blaulicht stehen.