Theo
Axios, CEO Anthropic đã từ chối lời
"đề nghị cuối cùng" của Ngũ Giác Đài chỉ 24 giờ trước thời hạn chót do Bộ trưởng Chiến Tranh Hegseth đặt ra như
"tối hậu thư".
Anthropic vẫn kiên quyết khẳng định rằng nền tảng trí tuệ nhân tạo của mô hình Claude không được sử dụng để giám sát công dân Mỹ hoặc thực hiện các nhiệm vụ quân sự gây ra chết người.
Cuộc gặp giữa Bộ trưởng Chiến tranh Mỹ Pete Hegseth (trái) và CEO Anthropic Dario Amodei (phải) về cho phép quân đội được sử dụng không hạn chế kỹ thuật AI Clsude sáng 24/2 không đạt được kết quả. (Ảnh: AOL)
Nguồn tin thông thạo có cho biết, Bộ trưởng Chiến tranh Mỹ Hegseth đã đưa ra
"tối hậu thư" với Anthropic: nếu công ty không thể hiện sự linh động hơn trong việc hợp tác với quân đội trước 17h01 chiều thứ Sáu (27/2), ông có thể liệt công ty này vào danh sách doanh nghiệp gây rủi ro chuỗi cung ứng, hoặc
viện dẫn "Defense Production Act"(DPA-Đạo luật Sản xuất Quốc phòng), một đạo luật của Mỹ được ban hành vào năm 1950 trong bối cảnh Chiến tranh Cao Ly, để buộc công ty phải hợp tác chặt chẽ hơn với Ngũ Giác Đài.
Dưới đây là tuyên bố của CEO Dario Amodei về các cuộc thảo luận với Bộ Chiến Tranh:
Tôi tin tưởng sâu sắc vào tầm mức quan trọng sống còn của việc sử dụng AI để bảo vệ Hoa Kỳ và các nền dân chủ khác, cũng như để đánh bại các đối thủ theo chế độ chuyên quyền độc tài.
Vì vậy, Anthropic đã chủ động cho triển khai các mô hình của AI Claude cho Bộ Chiến Tranh và giới an ninh tình báo. Chúng tôi là công ty AI tiên phong đầu tiên đưa mô hình vào các mạng lưới mật của chính phủ Mỹ, đầu tiên cho triển khai tại các Phòng thí nghiệm Quốc gia, và là nơi đầu tiên cung cấp các mô hình tùy chỉnh cho khách hàng trong lĩnh vực an ninh quốc gia. Claude hiện được sử dụng rộng rãi trong Bộ Chiến Tranh và các cơ quan an ninh quốc gia khác cho những nhiệm vụ trọng yếu như phân tích tình báo, mô hình hóa và mô phỏng, lập kế hoạch tác chiến, hoạt động an ninh mạng và nhiều ứng dụng khác.
Anthropic cũng đã hành động để bảo vệ vị thế dẫn đầu của Mỹ trong lĩnh vực AI, ngay cả khi điều đó đi ngược lại lợi ích ngắn hạn của công ty. Chúng tôi đã chấp nhận từ bỏ hàng trăm triệu USD doanh thu, để chấm dứt việc sử dụng Claude từ các công ty có liên hệ với Đảng Cộng sản Trung Quốc, trong đó có một số đơn vị đã được Bộ Chiến Tranh liệt vào danh sách công ty quân sự TQ. Chúng tôi cũng đã ngăn chặn các cuộc tấn công mạng do phía TQ bảo trợ nhằm lạm dụng AI Claude và ủng hộ việc kiểm soát chặt chẻ việc xuất khẩu chip để duy trì lợi thế cho các nền dân chủ.
Anthropic hiểu rằng Bộ Chiến Tranh, chứ không phải các công ty tư nhân, mới là bên đưa ra các quyết định về quân sự. Chúng tôi chưa từng phản đối bất cứ hành động quân sự cụ thể nào hay cố gắng hạn chế việc sử dụng ckỹ thuật của mình theo từng trường hợp riêng lẻ.
Tuy nhiên, trong một số tình huống hạn hẹp, chúng tôi tin rằng AI có thể làm suy yếu thay vì bảo vệ các giá trị về dân chủ. Một số ứng dụng cũng vượt quá khả năng an toàn và đáng tin cậy của kỹ thuật hiện nay. Có 2 trường hợp như vậy chưa từng được đưa vào hợp đồng với Bộ Chiến Tranh và chúng tôi cho rằng không nên bổ sung vào lúc này.
1/ Giám sát diện rộng công dân Mỹ trong nước. Chúng tôi ủng hộ việc sử dụng AI cho các nhiệm vụ tình báo và phản gián hợp pháp ở nước ngoài. Nhưng áp dụng các hệ thống này để giám sát công dân Mỹ trong nước là không phù hợp với các giá trị dân chủ. Giám sát qua AI tạo ra những rủi ro mới và nghiêm trọng đối với các quyền tự do căn bản chiếu theo Hiến Pháp. Nếu hiện nay một số hình thức giám sát đó vẫn cho là hợp pháp thì chỉ vì pháp luật chưa theo kịp sự phát triển nhanh chóng của AI. Ví dụ, theo luật hiện hành, chính phủ có thể mua hồ sơ chi tiết về di chuyển, lịch sử duyệt web và các mối giao tiếp của người Mỹ từ các nguồn công khai mà không cần có trát tòa. Giói an ninh tình báo đã thừa nhận điều này sẽ gây ra mối lo ngại về quyền cá nhân riêng tư và đã vấp phải sự phản đối từ cả hai đảng trong Quốc hội. AI mạnh mẽ có thể ghép nối những số liệu rời rạc, tưởng như vô hại này thành một bức tranh toàn diện về cuộc sống của bất cứ một ai, một cách tự động và trên quy mô rất lớn.
2/ Vũ khí hoàn toàn tự động. Các loại vũ khí bán tự động, như những loại đang được sử dụng tại Ukraine, đóng vai trò quan trọng trong việc bảo vệ nền dân chủ. Ngay cả vũ khí hoàn toàn tự động, tức là loại loại bỏ hoàn toàn con người ra khỏi quá trình lựa chọn và tấn công mục tiêu, có thể sẽ trở nên quan trọng cho nền quốc phòng trong tương lai. Tuy nhiên, ở thời điểm hiện tại, các hệ thống AI tồi tân vẫn chưa hội đủ mức độ tin cậy để cho vận hành vũ khí hoàn toàn tự động. Chúng tôi sẽ không cố ý cung cấp sản phẩm có thể gây rủi ro cho binh sĩ và công dân Mỹ. Chúng tôi đã đề nghị hợp tác nghiên cứu và phát triển với Bộ Chiến Tranh để nâng cao độ tin cậy của các hệ thống này, nhưng đề nghị đó vẫn chưa được chấp nhận. Ngoài ra, nếu không có cơ chế giám sát phù hợp, vũ khí hoàn toàn tự động không thể thay thế sự phán đoán quan trọng mà các quân nhân chuyên nghiệp, được qua đào tạo huấn luyện bài bản, thực hiện mỗi ngày. Những hệ thống này cần có các rào chắn kiểm soát rõ ràng, và điều hiện hiện nay chưa tồn tại.
Theo hiểu biết của chúng tôi, hai ngoại lệ này cho đến nay chưa hề cản trở việc mở rộng và sử dụng các mô hình của chúng tôi trong quân đội Hoa Kỳ.
Bộ Chiến Tranh tuyên bố họ chỉ ký hợp đồng với các công ty AI chấp nhận
"mọi mục đích sử dụng hợp pháp" và
"cho gỡ bỏ các biện pháp bảo vệ trong hai trường hợp nêu trên". Họ đã đe dọa loại bỏ chúng tôi ra khỏi hệ thống nếu vẫn giữ các biện pháp này, đồng thời đe dọa gắn cho chúng tôi nhãn
"rủi ro chuỗi cung ứng", vốn thường chỉ dành cho các đối thủ của Mỹ và chưa từng cho áp dụng với một công ty Mỹ, cũng như viện dẫn Đạo luật Sản xuất Quốc phòng để buộc gỡ bỏ ra các biện pháp bảo vệ. Hai hành động này tự thân đã có mâu thuẫn, một mặt xem chúng tôi là rủi ro an ninh, mặt khác lại xem AI Claude là thiết yếu cho an ninh quốc gia.
Dù vậy, những sự đe dọa này sẽ không làm thay đổi lập trường của chúng tôi. Chúng tôi không thể chấp nhận yêu cầu đó một cách có trách nhiệm.
Việc lựa chọn công ty thầu phù hợp với tầm nhìn của mình là quyền của Bộ. Tuy nhiên, xét đến giá trị đáng kể mà kỹ thuật của Anthropic mang lại cho quân đội Hoa kỳ trang, chúng tôi h vọng rằng họ sẽ cho cân nhắc lại. Chúng tôi mong muốn tiếp tục phục vụ Bộ và các quân nhân, với hai biện pháp bảo vệ nói trên vẫn cần được duy trì. Nếu Bộ quyết định chấm dứt hợp tác với Anthropic, chúng tôi sẽ phối hợp để chuyển giao suôn sẻ sang nơi cung cấp khác, tránh không làm gián đoạn đối với công tác lập kế hoạch quân sự, hoạt động tác chiến hoặc các nhiệm vụ trọng yếu khác. Các mô hình của chúng tôi sẽ tiếp tục được cung cấp theo các điều khoản rộng rãi mà chúng tôi đã đề xuất trong thời gian cần thiết.
Chúng tôi luôn sẵn sàng tiếp tục công việc nhằm hỗ trợ an ninh quốc gia của Hoa Kỳ.
Cũng nên nhắc lại, mô hình Claude của công ty Anthropic đã được quân đội Mỹ đem sử dụng trong cuộc độ kích táo bạo nhằm bắt giữ Tổng thống Venezuela Nicolas Maduro và vợ ông, bao gồm việc cho ném bom nhiều địa điểm tại thủ đô Caracas.
Thông thường, trong các cuộc hành quân như vậy, Claude được sử dụng nhằm hỗ trợ cho công ty Palantir, một nơi cung cấp AI cho Ngũ Giác Đài cùng các cơ quan an ninh và thực thi pháp luật khác. Trong đó Anthropic đã ký hợp đồng trị giá 200 triệu USD với Ngũ Giác Đài vào mùa hè năm 2025 vừa qua.