AI liên tục khẳng định những điều sai sự thật — và có lẽ Sam Altman cũng vậy
Bài viết phân tích vấn đề đáng lo ngại của ChatGPT khi liên tục đưa ra thông tin sai nhưng vẫn khẳng định mình đúng, đồng thời đặt câu hỏi về năng lực kỹ thuật thực sự của CEO OpenAI Sam Altman dựa trên các nguồn tin nội bộ.
Theo CleanTechnica, trí tuệ nhân tạo (AI) đang được tung hô như một vị thần trong giới công nghệ — thứ sẽ giải quyết mọi vấn đề và mang lại thịnh vượng cho tất cả. Nhưng thực tế cho thấy những hệ thống AI hàng đầu hiện nay vẫn mắc những lỗi rất cơ bản, và người đứng đầu công ty AI lớn nhất thế giới cũng có thể không giỏi như vẻ ngoài.
ChatGPT và vấn đề "nói bừa" đầy tự tin
CEO OpenAI Sam Altman gần đây xuất hiện trên podcast Mostly Human để giải quyết một lỗi nghiêm trọng trong chế độ giọng nói (voice mode) của ChatGPT. Một TikToker tên Husk đã phát hiện rằng sau khi dừng bộ đếm thời gian chạy bộ chỉ vài giây sau khi bắt đầu, ChatGPT lại khẳng định rằng anh đã chạy hơn 10 phút.
Khi bị phản bác, AI không hề thừa nhận sai mà tiếp tục bảo vệ câu trả lời sai của mình. Altman thừa nhận đây là một "vấn đề đã biết" và cần "khoảng một năm nữa" để khắc phục.
Bài viết gốc chỉ ra ba vấn đề lớn về độ tin cậy của AI hiện nay:
- Bịa đặt thông tin (Fabrication): Khi không chắc chắn, các hệ thống AI tạo ra thông tin sai thay vì thừa nhận không biết.
- Thể hiện quyền uy giả tạo (False Authority): Các câu trả lời được trình bày như thể đó là sự thật tuyệt đối, không có bất kỳ sự dè dặt nào.
- Cố chấp (Stubbornness): AI đôi khi khăng khăng mình đúng ngay cả khi bị người dùng chỉ ra sai sót.
Hiện tượng này trong giới chuyên môn gọi là "ảo giác AI" (AI hallucination) — một trong những thách thức lớn nhất mà ngành công nghệ đang phải đối mặt.
Sam Altman — nhà lãnh đạo thiếu nền tảng kỹ thuật?
Theo tạp chí The New Yorker, các nhân viên nội bộ OpenAI mô tả Altman là người thiếu kinh nghiệm về mặt kỹ thuật. Các kỹ sư nhận xét rằng ông "thiếu kinh nghiệm cả về lập trình lẫn học máy" (machine learning) và thường xuyên nhầm lẫn các thuật ngữ AI cơ bản.
Altman đã bỏ học chương trình khoa học máy tính tại Đại học Stanford sau hai năm. Cựu nghiên cứu viên OpenAI Carroll Wainwright nhận xét rằng Altman "thiết lập các cấu trúc mà trên giấy tờ thì ràng buộc ông, nhưng sau đó lại bỏ qua khi thấy bất tiện."
Đáng chú ý, một giám đốc cấp cao của Microsoft — đối tác đầu tư lớn nhất của OpenAI — từng suy đoán rằng có "một khả năng nhỏ nhưng thực tế" rằng Altman có thể bị nhớ đến như một nhân vật lừa đảo ở tầm cỡ Bernie Madoff hay Sam Bankman-Fried.
Ý nghĩa với thị trường Việt Nam
Tại Việt Nam, AI đang được ứng dụng ngày càng rộng rãi trong nhiều lĩnh vực, bao gồm cả ngành xe điện và hạ tầng trạm sạc. Nhiều ứng dụng sử dụng AI để tối ưu hóa tuyến đường, quản lý năng lượng và dự đoán nhu cầu sạc — ví dụ như việc TramSac.me cung cấp dữ liệu hơn 17.100 trạm sạc trên toàn quốc để giúp người dùng xe điện tìm trạm sạc nhanh chóng.
Tuy nhiên, bài học từ ChatGPT cho thấy người dùng Việt Nam cần cẩn trọng khi tin tưởng hoàn toàn vào AI. Đặc biệt trong lĩnh vực xe điện, các thông tin như phạm vi di chuyển, thời gian sạc hay vị trí trạm sạc cần được kiểm chứng từ các nguồn đáng tin cậy thay vì phụ thuộc hoàn toàn vào chatbot AI.
VinFast và các nhà sản xuất xe điện tại Việt Nam cũng đang tích hợp AI vào hệ thống xe và dịch vụ khách hàng. Việc hiểu rõ giới hạn của công nghệ này sẽ giúp cả doanh nghiệp lẫn người tiêu dùng đưa ra quyết định sáng suốt hơn.
Tổng kết
AI là công nghệ đầy tiềm năng, nhưng vẫn còn xa mới đạt đến sự hoàn hảo mà nhiều người kỳ vọng. Việc ChatGPT "nói bừa" đầy tự tin và những câu hỏi xung quanh năng lực kỹ thuật của Sam Altman là lời nhắc nhở rằng ngay cả những công ty công nghệ lớn nhất cũng có những điểm yếu cơ bản. Đối với người dùng — dù ở Mỹ hay Việt Nam — thái độ "tin nhưng cần kiểm chứng" vẫn là cách tiếp cận khôn ngoan nhất khi sử dụng AI.
Nguồn: CleanTechnica