Nhịp sống số

Lầu Năm Góc ‘đánh dấu rủi ro’ Anthropic: Căng thẳng bùng nổ vì AI quân sự

Sau khi CEO Dario Amodei từ chối để quân đội Mỹ sử dụng AI cho giám sát diện rộng và vũ khí tự động, Lầu Năm Góc đã đưa Anthropic vào danh sách “rủi ro chuỗi cung ứng”. Quyết định gây tranh cãi này có thể làm rung chuyển mối quan hệ giữa chính phủ Mỹ và các công ty AI.

Căng thẳng giữa Bộ Quốc phòng Mỹ và công ty AI Anthropic đang leo thang sau khi cơ quan này chính thức xếp startup vào diện “rủi ro chuỗi cung ứng”.

Theo các nguồn tin từ Bloomberg và Wall Street Journal, Lầu Năm Góc đã gửi thông báo tới Anthropic cho biết các sản phẩm của công ty bị coi là có nguy cơ đối với chuỗi cung ứng công nghệ của quân đội. Quyết định được đưa ra sau nhiều tuần bất đồng giữa hai bên.

Nguồn cơn của tranh chấp xuất phát từ việc CEO Anthropic, Dario Amodei, từ chối cho phép quân đội Mỹ sử dụng các mô hình AI của công ty cho mục đích giám sát diện rộng người dân trong nước hoặc vận hành vũ khí tự động.

Anthropic xác nhận đã nhận được thông báo và cho biết sẽ tiến hành các bước pháp lý để phản đối quyết định này.

Động thái của Lầu Năm Góc diễn ra chỉ vài giờ sau khi Financial Times đưa tin hai bên đang cố gắng nối lại đàm phán vào ngày 5/3. Trong cuộc trao đổi được xem là “nỗ lực cuối cùng” nhằm tháo gỡ bế tắc, ông Amodei đã thảo luận trực tiếp với Emil Michael, Giám đốc công nghệ của Bộ Quốc phòng Mỹ.

Trước đó một ngày, Amodei gửi thư dài hơn 1.600 từ tới nhân viên Anthropic, trong đó chỉ trích đối thủ OpenAI. Ông cho rằng sự khác biệt giữa hai công ty nằm ở cách tiếp cận các hợp đồng quốc phòng.

Theo nội dung bức thư, Amodei khẳng định OpenAI sẵn sàng hợp tác với Lầu Năm Góc vì không cần phải trấn an nội bộ nhân viên, trong khi Anthropic đặt nặng vấn đề đạo đức và muốn ngăn chặn nguy cơ AI bị lạm dụng.

Tuy nhiên, sau khi bức thư bị rò rỉ ra ngoài, CEO Anthropic đã lên tiếng xin lỗi vào ngày 6/3, cho biết ông không muốn làm tình hình trở nên căng thẳng hơn.

Dario Amodei - CEO Anthropic, công ty đứng sau chatbot Claude

Theo Bloomberg, việc gắn nhãn “rủi ro chuỗi cung ứng” đối với Anthropic có thể tạo ra tác động lớn cho cả hai phía. Hiện tại, đây là công ty AI duy nhất cung cấp hệ thống có thể vận hành trong môi trường đám mây bảo mật cao của Bộ Quốc phòng Mỹ. Nền tảng Claude Gov của hãng cũng được nhiều đơn vị quân sự sử dụng.

Lauren Kahn, chuyên gia tại Trung tâm An ninh và Công nghệ mới nổi thuộc Đại học Georgetown, nhận định việc loại bỏ Anthropic khỏi hệ sinh thái công nghệ của quân đội sẽ gây ra không ít khó khăn cho các bên liên quan.

Quyết định này cũng gây tranh cãi trong giới công nghệ. Theo TechCrunch, hàng trăm nhân viên từ các công ty như OpenAI và Google đã ký kiến nghị yêu cầu Bộ Quốc phòng rút lại động thái trên, đồng thời kêu gọi Quốc hội Mỹ xem xét lại.

Nhóm này cho rằng việc gắn nhãn rủi ro chuỗi cung ứng đối với một công ty công nghệ Mỹ là bước đi bất thường, bởi danh sách này trước đây chủ yếu áp dụng cho các doanh nghiệp nước ngoài.

Các nhân viên công nghệ cũng kêu gọi cộng đồng AI tiếp tục từ chối những yêu cầu sử dụng mô hình trí tuệ nhân tạo cho các mục đích như giám sát hàng loạt trong nước hoặc vận hành vũ khí tự động mà không có sự kiểm soát của con người.

Vụ việc đang làm dấy lên cuộc tranh luận lớn hơn về vai trò của AI trong lĩnh vực quân sự, cũng như ranh giới giữa đổi mới công nghệ và các chuẩn mực đạo đức trong thời đại trí tuệ nhân tạo.