Cựu giám đốc xe tự lái Uber gặp tai nạn khi dùng Tesla FSD — phơi bày lỗ hổng chí mạng của mô hình "giám sát bởi người lái"
Raffi Krikorian — CTO của Mozilla và cựu giám đốc bộ phận xe tự lái Uber — đã gặp tai nạn nghiêm trọng khi sử dụng tính năng Full Self-Driving (FSD) trên chiếc Tesla Model X, trong khi con của ông ngồi ở ghế sau. Trong bài viết đăng trên The Atlantic, ông đưa ra phân tích sâu sắc về lỗ hổng cốt lõi trong cách tiếp cận "lái tự động có giám sát" của Tesla.
Theo Electrek, Raffi Krikorian — Giám đốc Công nghệ (CTO) của Mozilla và từng là người đứng đầu bộ phận xe tự lái của Uber — vừa gặp tai nạn nghiêm trọng khi sử dụng tính năng Full Self-Driving (FSD) trên chiếc Tesla Model X của mình. Đáng lo ngại hơn, các con của ông đang ngồi ở ghế sau tại thời điểm xảy ra va chạm.
Trong một bài tiểu luận đăng trên tạp chí The Atlantic, Krikorian — người từng trực tiếp xây dựng hệ thống xe tự lái cho Uber — đã đưa ra những phân tích được đánh giá là sắc bén nhất từ trước đến nay về lỗ hổng cốt lõi trong cách tiếp cận "lái tự động có giám sát" (supervised autonomy) của Tesla.
Tai nạn xảy ra như thế nào?
Vụ tai nạn diễn ra trên một con đường dân cư tại khu vực Bay Area (California, Mỹ) — tuyến đường mà Krikorian đã đi qua hàng trăm lần. Khi xe vào cua, hệ thống FSD dường như mất phương hướng, khiến vô-lăng xoay bất thường và xe giảm tốc đột ngột. Dù đã cố gắng giành lại quyền điều khiển, Krikorian không thể ngăn chiếc Model X lao vào bức tường bê-tông, khiến xe hư hỏng toàn bộ.
Krikorian bị chấn động não, đau cứng cổ và nhức đầu kéo dài. May mắn, các con ông không bị thương. Theo quy định pháp lý hiện hành tại Mỹ, hệ thống FSD của Tesla được phân loại ở cấp độ 2 (Level 2) — nghĩa là trách nhiệm pháp lý thuộc về người lái, không phải Tesla. Tên của Krikorian xuất hiện trên hồ sơ bảo hiểm, chứ không phải tên Tesla.
Bẫy chết người của hệ thống "gần như hoàn hảo"
Luận điểm trọng tâm trong bài viết của Krikorian nằm ở một nghịch lý mà giới nghiên cứu tâm lý học đã chỉ ra từ lâu: "Một cỗ máy không đáng tin sẽ khiến bạn luôn cảnh giác; một cỗ máy hoàn hảo thì không cần giám sát; nhưng một cỗ máy hoạt động gần như hoàn hảo lại tạo ra một cái bẫy."
Krikorian chỉ ra ba vấn đề then chốt:
- Suy giảm khả năng cảnh giác (vigilance decrement): Các nhà tâm lý học đã chứng minh rằng việc giám sát một hệ thống gần như không mắc lỗi sẽ khiến con người buồn chán và mất tập trung. Khi hệ thống đột ngột gặp sự cố, tài xế cần từ 5 đến 8 giây để "quay lại" trạng thái tập trung — trong khi tình huống khẩn cấp diễn ra nhanh hơn thế rất nhiều.
- Điều kiện hóa hành vi: Dù Tesla liên tục cảnh báo tài xế không được lơ là, nhưng chính việc FSD hoạt động trơn tru lại "huấn luyện" người lái thả lỏng. Nghiên cứu từ Viện Bảo hiểm An toàn Đường bộ Mỹ cho thấy tài xế sử dụng hệ thống kiểm soát hành trình thích ứng (adaptive cruise control) xem điện thoại nhiều hơn gấp 6 lần chỉ sau một tháng sử dụng.
- Khung thời gian can thiệp bất khả thi: Krikorian dẫn chứng hai vụ tai nạn: vụ Mountain View năm 2018, tài xế có 6 giây trước khi va chạm nhưng không bao giờ chạm vào vô-lăng; và vụ Uber tại Tempe cùng năm, hệ thống phát hiện người đi bộ trước 5,6 giây nhưng tài xế chỉ nhìn lên khi còn chưa đầy 1 giây.
Bất đối xứng dữ liệu và khoảng trống trách nhiệm
Krikorian cũng nêu vấn đề về cách Tesla sử dụng dữ liệu một cách bất đối xứng. Tesla liên tục ghi lại vị trí tay trên vô-lăng, thời gian phản ứng và dữ liệu theo dõi mắt, sau đó dùng chính những dữ liệu này để đổ lỗi cho tài xế sau mỗi vụ tai nạn. Trong khi đó, khi tài xế yêu cầu dữ liệu của chính mình, họ chỉ nhận được những mảnh rời rạc.
Trong vụ kiện tử vong oan tại Florida với phán quyết bồi thường lên đến khoảng 6.000 tỷ VND (243 triệu USD), phía nguyên đơn đã phải thuê hacker để khôi phục bằng chứng từ chip máy tính trên xe, vì Tesla tuyên bố không thể trích xuất dữ liệu.
Đáng chú ý, Krikorian so sánh cách tiếp cận của Tesla với BYD. Vào tháng 7/2025, BYD tuyên bố sẽ chịu trách nhiệm bồi thường thiệt hại do tính năng đỗ xe tự động gây ra, mà không yêu cầu tài xế nộp đơn bảo hiểm hay ảnh hưởng đến hồ sơ lái xe. Điều này cho thấy việc chia sẻ trách nhiệm là một lựa chọn, không phải điều bất khả kháng.
Hiện tại, Cục Quản lý An toàn Giao thông Đường bộ Mỹ (NHTSA) đang điều tra hơn 80 vụ việc liên quan đến FSD, ảnh hưởng đến 2,88 triệu xe.
Ý nghĩa với thị trường Việt Nam
Tại Việt Nam, các hệ thống hỗ trợ lái tiên tiến (ADAS) ngày càng phổ biến trên xe điện, đặc biệt trên các dòng xe VinFast VF 8, VF 9 và cả các mẫu xe nhập khẩu từ Trung Quốc. Bài học từ vụ tai nạn của Krikorian nhắc nhở rằng dù công nghệ có tiến bộ đến đâu, người lái vẫn cần hiểu rõ giới hạn của hệ thống.
Khi hạ tầng xe điện tại Việt Nam ngày càng mở rộng — với hơn 42.500 trạm sạc đã được cập nhật trên TramSac.me — việc song song xây dựng nhận thức đúng đắn về các tính năng tự lái cũng quan trọng không kém. Các nhà sản xuất cần minh bạch hơn về khả năng và giới hạn thực sự của hệ thống, thay vì để cái tên "tự lái hoàn toàn" tạo kỳ vọng sai lệch cho người dùng.
Tổng kết
Vụ tai nạn của Krikorian đặc biệt có sức nặng bởi ông không phải người dùng thông thường — ông là người từng xây dựng hệ thống xe tự lái chuyên nghiệp và được đào tạo bài bản về quy trình can thiệp. Nếu ngay cả một chuyên gia như vậy vẫn rơi vào "bẫy tự mãn" của hệ thống gần như hoàn hảo, thì người dùng phổ thông gần như không có cơ hội. Như Electrek nhận định: "Khi FSD hoạt động tốt, Tesla nhận công. Khi FSD gặp sự cố, tài xế lãnh đủ."
Nguồn: Electrek