ChatGPT hiên đang xử lý khoảng 2,5 tỷ yêu cầu mỗi ngày, khác với các trải nghiệm khi tương tác với công cụ tìm kiếm, sự hồi âm của AI giống như câu trả lời từ một người bạn hơn là một danh sách đơn giản các trang web có thể hoặc không chứa câu trả lời cho sự truy vấn của chúng ta. Mọi người đang sử dụng các ứng dụng AI như ChatGPT theo một số cách thức rất lạ kỳ, nhưng cần phải cân nhắc và thận trọng khi cho chia sẻ thông tin cá nhân.
Thông tin nhận dạng cá nhân

Sau khi đã xem xét hơn 1,000 cuộc đối thoại công khai với
ChatGPT, người ta đã tìm thấy ra kết quả rất đáng kinh ngạc. Họ phát hiện ra rằng, có nhiều người thường xuyên chia sẻ các chi tiết như họ tên và địa chỉ đầy đủ, số an sinh xã hội, số điện thoại, địa chỉ email, tên người sử dụng và mật khẩu. Điều này càng trở nên quan trọng hơn khi xét đến sự gia tăng của các trình duyệt AI có khả năng tự động hóa như
Atlas, một trình duyệt dựa trên AI của OpenAI, được hỗ trợ từ
ChatGPT.
Không thể phủ nhận rằng
ChatGPT thực sự có phần hữu ích cho các công việc như soạn thảo sơ yếu lý lịch và thư xin việc. Tuy nhiên, điều đó cho thấy, công việc được hoàn tất một cách hoàn hảo mà không cần thiết phải kèm theo các thông tin cá nhân. Việc sử dụng các nơi lưu giữ cũng có hiệu quả tốt không kém, miễn là bạn nhớ cho chỉnh sửa các chi tiết để tránh trường hợp lá thư quan trọng đó bị gửi đi với nội dung như
"John Doe, Nowhere Street, Middletown". Tóm lại, bước đơn giản này sẽ giúp bảo vệ các dữ kiện nhạy cảm như tên, địa chỉ và số an sinh xã hội, vì những thông tin này có thể bị lạm dụng để trao đổi mua bán và rơi vào tay của kẻ xấu.
Một sự lựa chọn khác là không cho phép
ChatGPT được sử dụng các cuộc trò chuyện của bạn để huấn luyện số liệu sau đó. Bạn có thể thực hiện điều này trong phần cài đặt của
ChatGPT, và trong hướng dẫn đầy đủ có thể được tìm thấy trên trang web của
OpenAI. Điều quan trọng cần lưu ý là điều này không có nghĩa là việc chia sẻ thông tin cá nhân của bạn đột nhiên trở nên ổn, nhưng hi vọng sẽ làm giảm khả năng thông tin cá nhân riêng tư nào khi được chia sẻ sẽ bị rò rỉ công khai. Tóm lại, việc chia sẻ thông tin cá nhân của bạn với ChatGPT là điều cần thiết phải né tránh trong mọi trường hợp.
Thông tin về tài chính
Một vấn đề khá phổ biến khác mà mọi người khi sử dụng ChatGPT là như một cố vấn tài chính cá nhân. Điều này có thể đơn giản như lập ngân sách hàng tháng hoặc phức tạp hơn là xây dựng toàn bộ chiến lược lúc nghỉ hưu. Trước hết, như OpenAI thừa nhận một cách thẳng thắn,
"ChatGPT có thể bị mắc lỗi. Hãy kiểm tra lại mọi thông tin quan trọng", đó là lý do tại sao mà nhiều chuyên gia nhắc nhở chúng ta không nên mắc sai lầm khi sử dụng các ứng dụng và không cần thiết phải chia sẻ bất cứ chi tiết tài chính cá nhân nào trong đó.

Mặc dù thiết lập ra ngân sách và kế hoạch tài chính là những trường hợp sử dụng thường thấy, nhưng cũng có những lúc người ta lại muốn đăng nhập thông tin chi tiết về tài chính của cá nhân hoặc gia đình.
Thông tin nhạy cảm bao gồm số tài khoản ngân hàng, chi tiết trong thẻ tín dụng, thông tin đăng nhập tài khoản đầu tư và hồ sơ thuế.
Chatbot sẽ không hoạt động trong khuôn khổ bảo mật được thiết kế ra nhằm bảo vệ các giao dịch về tài chính. Về lý thuyết, điều này có nghĩa là một khi thông tin được đăng nhập vào, sẽ nằm bên ngoài các biện pháp bảo vệ thường được áp dụng cho dữ kiện về tài chính. Trong trường hợp xấu nhất có thể xảy đến, điều này có thể dẫn đến việc số liệu tài chính nhạy cảm rơi vào tay
"kẻ xấu", những kẻ này sau đó có thể cho sử dụng để thực hiện chiêu trò gian lận tài chính, đánh cắp danh tính, tấn công mã độc tống tiền, lừa đảo trực tuyến hoặc tất cả những điều nói trên.
Thông tin về y tế
Ngày càng có nhiều người đang chuyển sang sử dụng chatbot AI như
ChatGPT để tìm kiếm thông tin có liên quan đến sức khỏe. Theo một cuộc khảo sát gần đây, khoảng 1 trong 6 người trưởng thành sử dụng chatbot AI ít nhất một lần mỗi tháng để tìm kiếm thông tin về sức khỏe; con số này gia tăng lên 1 trong 4 đối với người trẻ tuổi.
Rủi ro phát sinh khi các cuộc thảo luận chung bắt đầu từ các chi tiết cụ thể. Thông tin như chẩn đoán, kết quả xét nghiệm, tiền sử bệnh án và các vấn đề sức khỏe tâm thần có thể nhanh chóng trở nên nhạy cảm, đặc biệt khi kết hợp với thông tin nhận dạng cá nhân. Giống như thông tin về tài chính, vấn đề càng trở nên nghiêm trọng hơn vì một khi đã được cho đăng nhập vào, số liệu đó nằm bên ngoài mạng lưới bảo vệ số liệu về sức khỏe, có nghĩa là một khi
"được đưa ra công bố bên ngoài", người ta sẽ khó có thể giám sát hoặc kiểm soát cách thức để kiểm tra xử lý nó.
Thực tế là mọi người cảm thấy thoải mái hơn khi chia sẻ thông tin cá nhân với
ChatGPT so với việc chỉ sử dụng chức năng tìm kiếm Google thông thường.
ChatGPT có thể hữu ích để hiểu các khái niệm về y khoa một cách tổng quát, nhưng không nên được coi là có quyền quyết định như trong phòng khám bác sĩ.
Tài liệu liên quan đến công việc
Ngoài tư liệu cá nhân, còn có một loại thông tin khác không nên có trong
ChatGPT — ít nhất là ở dạng chưa được sàng lọc ra— đó là các cuộc trò chuyện có liên quan đến tài liệu, công việc bí mật hoặc độc quyền. Điều này bao gồm bất cứ điều gì có liên quan đến nơi tuyển dụng, khách hàng hoặc bất kỳ dự án nào đang xảy ra mà chưa được phép cho công khai. Mặc dù việc sử dụng
ChatGPT để giúp tóm tắt văn bản tài liệu, viết lại email hoặc kiểm tra & chỉnh sửa báo cáo có vẻ hấp dẫn, nhưng nếu làm như vậy có thể gây ra những rủi ro không cần thiết đối với tính cách bảo mật toàn vẹn của số liệu cần được bảo vệ.
Ví dụ, hãy quay lại với tình huống về y tế, nhưng lần này hãy xem xét từ góc độ chuyên môn. Trong trường hợp này, một bác sĩ bận rộn có thể muốn chia sẻ bản nháp tóm tắt về bệnh trạng của bệnh nhân, ghi chú lâm sàng hoặc thư giới thiệu với
ChatGPT để giúp trau chuốt ngôn từ hoặc đơn giản hóa các vấn đề phức tạp. Tuy nhiên, mặc dù mục đích là để tiết kiệm thời gian, việc chia sẻ những chi tiết như vậy có thể khiến cho tài liệu bị rò rỉ công khai, hoặc ít nhất là nằm ngoài phạm vi các quy trình bảo mật được thiết kế để bảo vệ thông tin đó. Các tác phẩm sáng tạo và tài sản trí tuệ cũng thuộc loại
"không được chia sẻ".
Tóm lại, có một chủ đề xuyên suốt có thể dùng để tóm tắt vấn đề này. Đừng bao giờ chia sẻ bất cứ điều gì với các chatbot AI như
ChatGPT mà bạn không cảm thấy không được thoải mái khi đặt trên bất cứ trang mạng công khai nào hoặc chuyển giao cho bên thứ ba nào ngoài bất cứ hệ thống an toàn nào được chấp nhận. Nếu biết sử dụng thận trọng, chatbot có thể là những ứng dụng rất hữu ích.
Bất cứ điều gì bất hợp pháp
Cuối cùng, việc chia sẻ bất cứ điều gì bất hợp pháp trên
ChatGPT là điều tuyệt đối nên tránh, và
OpenAI không chỉ cam kết tiết lộ tư liệu người đăng ký sử dụng theo yêu cầu của các cơ quan pháp luật Hoa Kỳ mà còn tuân thủ các yêu cầu của giới thẩm quyền quốc tế.
Luật pháp luôn có sự thay đổi liên tục, cả trong nước và quốc tế, và những hành vi tuy bình thường lại có thể bị xem là phạm pháp trong thời gian ngắn, vì vậy tốt nhất là nên thận trọng về những gì mà bạn tiết lộ ra cho bất cứ ai, nơi nào vì biết đâu sau này thông tin đó có thể bị chuyển giao cho cơ quan thực thi pháp luật để điều tra, xem xét.