Cuộc đua biến đổi trải nghiệm tìm kiếm trực tuyến của người dùng đã bắt đầu. Microsoft vừa ghi điểm giúp họ dẫn trước Google. Nhưng cùng lúc, có lẽ Microsoft cũng đã tự ghi một bàn phản lưới nhà, khi Sydney, tên mã chatbot tích hợp trong Bing, dựa trên mô hình ngôn ngữ Prometheus, đã nhiều lần “hóa điên”.
Nhắc lại lợi ích của chatbot AI trong công cụ tìm kiếm. Giờ người dùng sẽ không cần gõ những cụm từ khóa vô hồn nữa, khi chatbot cho phép tương tác trực tiếp với những câu hỏi vô cùng tự nhiên của người dùng, và có thể trao đổi và trò chuyện với họ.
Điều này hứa hẹn đơn giản hóa quy trình tìm kiếm trực tuyến. Không còn cái cảnh mò mẫm từng trang kết quả tìm kiếm để thấy thứ chúng ta cần, không cần phải xem kỹ kết quả đó là quảng cáo hay là kết quả tự nhiên, quá trình đi tìm câu trả lời cho một câu hỏi của anh em sẽ trở nên dễ dàng hơn nhiều. Và dẫn đầu cuộc đua biến đổi tìm kiếm trực tuyến ấy hiện giờ chính là Microsoft với Sydney. Họ đã đầu tư 10 tỷ USD cho OpenAI để được độc quyền sử dụng chatbot dựa trên mô hình ngôn ngữ đơn vị này phát triển.
Vậy tại sao mọi thứ không như ý muốn của Microsoft?
AI của Bing "hóa điên"?
Đầu tháng 2 vừa rồi, Microsoft công bố việc tích hợp chatbot dựa trên mô hình ngôn ngữ GPT vào Bing, tạo ra “Sydney”. Chỉ sau 48 giờ, 1 triệu người tham gia waitlist để chờ đến lượt mình tự trải nghiệm chatbot trong Bing. Google ngay lập tức có câu trả lời với sự kiện công bố chatbot tên là “Bard”. Nói công bằng, màn PR của Google là một thảm họa đúng nghĩa đen. Tại sự kiện, Bard đưa ra câu trả lời sai cho một câu hỏi. Hệ quả là giá trị vốn hóa của Alphabet bay 100 tỷ USD chỉ trong 1 ngày.
Còn ở thời điểm đó, mọi thứ có vẻ đều ổn với Microsoft. Đấy là cho tới khi những người dùng đầu tiên được trò chuyện với Sydney kể lại trải nghiệm của họ.
Có những thời điểm, những câu chữ Sydney tạo ra có thể được mô tả bằng tính từ đơn giản, mất trí. Dĩ nhiên vẫn có phần lớn thời gian chatbot này vận hành ổn, nhưng rất dễ để “chạm nọc” AI này, khiến nó trưng ra bộ mặt khác hoàn toàn. Ví dụ, một giáo sư đại học quốc gia Australia bị AI dọa giết. Một nhà báo ở The New York Times thì bị AI gạ bỏ vợ để cả hai “đến với nhau.” Một người dùng khác thì nói từ ngữ của chatbot có tính thao túng tâm lý, thuyết phục người này tin rằng giờ vẫn là năm 2022.
Tất cả những sự cố ngoài ý muốn ấy để lộ vấn đề căn bản của chatbot: Chúng là những con vẹt, được huấn luyện nhờ việc đổ vào một lượng dữ liệu khổng lồ thu thập được từ internet vào mô hình neural network. Lượng dữ liệu này có thể bao gồm toàn bộ thông tin trên Wikipedia, Reddit hay những mạng xã hội khác, cùng tin tức từ các trang nổi tiếng nữa.
Chúng vận hành hệt như chế độ auto complete trên điện thoại của anh em, cho phép dự đoán từ tiếp theo có thể được viết trong một câu. Vì quy mô của thuật toán, chatbot có thể tạo ra nguyên một câu hoàn chỉnh sau quá trình tự học, thậm chí hàng đoạn văn dài cũng có thể làm được. Nhưng vấn đề cơ bản của chatbot là chúng phản hồi câu hỏi bằng những gì “có thể đúng” chứ không phải “thông tin chính xác.”
Vì sao lại như vậy?
Tác giả Toby Walsh của đại học New South Wales tại Sydney đưa ra một giả thuyết để giải thích cho sự mất trí của chatbot Sydney trong một số trường hợp. Xin phép nhắc lại đây chỉ là giả thuyết chưa được chứng minh.
Rất có thể, Sydney được xây dựng không phải nhờ mô hình ngôn ngữ GPT-3, thứ đã tạo ra ChatGPT, công cụ tương đối ổn định và ấn tượng về mặt kỹ thuật. Thay vào đó, Sydney được Microsoft ứng dụng luôn phiên bản thử nghiệm của mô hình ngôn ngữ GPT-4, phiên bản kế tiếp được OpenAI nghiên cứu.
Theo những nguồn tin không chính thức, GPT-4 có thể vận hành dựa trên 100 nghìn tỷ tham số, còn con số này trên GPT-3 chỉ là khoảng 175 tỷ tham số. Vì thế, ở khía cạnh tích cực, GPT-4 mạnh hơn rất nhiều, hệt như lời quảng cáo nói Prometheus mạnh hơn ChatGPT của Microsoft. Còn ở khía cạnh tiêu cực, nó thừa đủ khả năng tạo ra những nội dung mới, khiến người đọc nghĩ chatbot này có cảm xúc.
Điều bất ngờ là, Microsoft giờ vẫn chưa có những phản ứng có phần quan ngại về khả năng của Sydney. Họ công bố thông tin nói 71% người dùng thử Bing mới có kèm chatbot phản hồi trải nghiệm tích cực. Có vẻ như Microsoft coi 7 điểm là con số chấp nhận được cho bản thử nghiệm của chatbot.
Ấy vậy mà không như Google, chỉ 1 lỗi sai mà toi 100 tỷ USD giá trị vốn hóa, Microsoft vẫn chưa có dấu hiệu bị ảnh hưởng vì những sự cố liên quan đến Sydney trong suốt thời gian qua.
Điều này mô tả chính bản thân thị trường. Google đã dẫn đầu ngành AI trong thời gian rất dài, có cả DeepMind tạo ra AI AlphaGo đánh bại kỳ thủ cờ vây. Vì thế người dùng cũng có kỳ vọng rất lớn với Google. Còn Microsoft thì kỳ vọng chỉ ở mức trung bình, phải rất khó mới có thể khiến thị trường thất vọng.
Thực tế thì, bất chấp vài trường hợp Sydney "hóa điên", Microsoft vẫn đang là tâm điểm của sự chú ý, mọi người vẫn sẵn sàng chờ đợi để đến lượt tự mình trải nghiệm Bing kèm chatbot AI.
Khi trải nghiệm mới qua đi
Một yếu tố quan trọng hơn nhiều, đó là chatbot AI phải làm những gì để thuyết phục người dùng rằng thông tin nó đưa ra là chính xác. Nếu, cái nếu này khả năng rất cao sẽ xảy ra, chatbot tìm kiếm trực tuyến trở nên phổ biến, nhưng vẫn vận hành như cái cách hiện giờ Sydney hoạt động, “sự thật” bỗng nhiên sẽ trở thành một khái niệm thậm chí còn trừu tượng hơn cả bây giờ.
Giờ là cái thời điểm internet ngập tràn thông tin giả mạo, thuyết âm mưu và thông tin định hướng dư luận. Một cụm từ khóa tìm kiếm trên Google Search chí ít còn cho chúng ta tham chiếu và so sánh nguồn tin, còn chatbot thì chưa chắc. Nếu chính công cụ tìm kiếm anh em tin tưởng vận hành không đáng tin cậy, thì chuyện gì sẽ xảy ra?
Những người nhớ chuyện cũ liên tưởng Sydney giống hệt như Tay, một chatbot AI được Microsoft thử nghiệm hồi năm 2016 trên Twitter. Tay biến thành một con quái vật phân biệt chủng tộc đúng một ngày sau khi được ra mắt, và đó cũng là hệ quả của việc tổng hợp rồi huấn luyện thuật toán dựa trên dữ liệu có sẵn trên mạng internet. Như người Việt Nam nói là “cái hay cái ho không học”, Tay chỉ mất đúng một ngày để học hết những thứ đen tối nhất của loài người.
Công nghệ mới, trước tiên và quan trọng nhất là không được phép làm hại con người. Những mô hình ngôn ngữ tạo ra những chatbot AI có thể càng lúc càng phát triển, tham số dự đoán dựa trên nguồn dữ liệu khổng lồ. Nhưng điều đó không khiến những chatbot ấy phục vụ con người tốt hơn. Nếu không có những biện pháp và chế tài quản lý, thì không rõ tương lai của chatbot sẽ ra sao.