Chiến trường thầm lặng: Cách vũ khí tự hành định nghĩa lại chiến tranh khi luật lệ chưa theo kịp

28 tháng 3, 2026

Chiến trường thầm lặng: Cách vũ khí tự hành định nghĩa lại chiến tranh khi luật lệ chưa theo kịp

Hình ảnh robot sát thủ thường chỉ có trong khoa học viễn tưởng—một người lính hình người bằng kim loại tiến ra chiến trường. Nhưng cuộc cách mạng thực sự trong chiến tranh đang diễn ra âm thầm hơn nhiều. Nó không có hình dạng của một người máy Hollywood, mà là phần mềm thông minh được tích hợp trong máy bay không người lái, tên lửa và các hệ thống phòng thủ. Lớp vũ khí tự hành mới này có khả năng truy lùng và tấn công mục tiêu mà không cần con người điều khiển trực tiếp. Chúng đang di chuyển từ phòng thí nghiệm ra tiền tuyến. Sự phát triển này đang buộc cả thế giới phải đối mặt với một thực tế mà nhiều người chưa chuẩn bị: những quyết định quan trọng nhất trong chiến tranh sắp tới có thể không do các tướng lĩnh đưa ra, mà là do các thuật toán.

Sự thay đổi này đã và đang diễn ra. Năm 2021, một báo cáo của Liên Hợp Quốc về cuộc xung đột ở Libya cho rằng một máy bay không người lái Kargu-2 do Thổ Nhĩ Kỳ sản xuất, một loại đạn tuần kích, có thể đã truy lùng và “tấn công” những người lính đang rút lui ở chế độ hoàn toàn tự hành. Mặc dù các chi tiết vẫn còn gây tranh cãi, vụ việc này đánh dấu một bước ngoặt tiềm tàng. Đây có thể là lần đầu tiên một cỗ máy được ghi nhận đã giết một con người dựa trên trí tuệ nhân tạo của chính nó. Các cường quốc quân sự lớn, bao gồm Mỹ, Trung Quốc và Nga, đang đầu tư hàng tỷ đô la vào chiến tranh do AI điều khiển. Họ tin rằng tốc độ của các hệ thống tự hành sẽ mang lại một lợi thế không thể vượt qua. Một AI có thể phân tích dữ liệu cảm biến, xác định mối đe dọa và phản công trong vài phần nghìn giây—một chu trình ra quyết định mà một người điều khiển là con người đơn giản là không thể bì được.

Xu hướng tiến tới tự hành hóa được thúc đẩy bởi một logic mạnh mẽ về sự cần thiết trong quân sự. Trong kỷ nguyên của tên lửa siêu thanh và tác chiến điện tử phức tạp, các quốc gia lo sợ bị yếu thế nếu hệ thống phòng thủ của họ phụ thuộc vào phản xạ chậm chạp của con người. Lập luận này thường được nêu ra xoay quanh vấn đề an toàn. Người ta cho rằng các hệ thống tự hành có thể chính xác hơn những người lính là con người, vốn bị ảnh hưởng bởi mệt mỏi, sợ hãi và khả năng phán đoán kém. Bằng cách đưa con người ra khỏi vùng chiến đấu trực tiếp, những người ủng hộ lập luận rằng chúng ta có thể giảm thương vong cho lực lượng của mình. Lý lẽ này tạo ra một động lực thuyết phục và có lẽ không thể đảo ngược. Nó tạo ra một thế lưỡng nan an ninh kinh điển: ngay cả khi một quốc gia do dự trong việc phát triển các vũ khí này, họ vẫn phải làm vậy vì sợ rằng đối thủ của họ sẽ giành được lợi thế quyết định.

Tuy nhiên, cuộc chạy đua vũ trang công nghệ này mang theo những rủi ro sâu sắc vượt xa chiến trường trước mắt. Mối nguy lớn nhất là nguy cơ leo thang thảm khốc và ngoài ý muốn. Các trò chơi chiến tranh và mô phỏng do các tổ chức tư vấn như Tập đoàn RAND thực hiện đã nhiều lần cho thấy rằng khi các hệ thống tự hành đối đầu nhau, xung đột có thể vượt khỏi tầm kiểm soát với tốc độ của máy móc. Một cuộc giao tranh nhỏ ở biên giới có thể bị các thuật toán đối địch diễn giải sai, kích hoạt một chuỗi phản ứng tự động và bùng nổ thành một cuộc chiến toàn diện trước khi các nhà ngoại giao kịp nhấc điện thoại. Trong môi trường cực nhanh này, không gian cho sự cân nhắc, giảm leo thang và ngoại giao của con người sẽ biến mất.

Thêm vào đó, vũ khí tự hành gây sát thương tạo ra một khoảng trống pháp lý và đạo đức. Toàn bộ khuôn khổ của luật nhân đạo quốc tế—vốn chi phối cách tiến hành chiến tranh—được xây dựng trên nền tảng trách nhiệm của con người. Các nguyên tắc như phân biệt (nhận biết giữa binh lính và dân thường) và tương xứng (đảm bảo một cuộc tấn công không quá mức so với mục tiêu quân sự) đòi hỏi sự phán xét đạo đức phức tạp và nhận thức được bối cảnh. Không rõ liệu một AI có thể thực sự tái tạo được điều này hay không. Nếu một vũ khí tự hành phạm sai lầm và tấn công một trường học hoặc bệnh viện, ai sẽ là người chịu trách nhiệm? Liệu đó là lập trình viên viết mã, chỉ huy đã triển khai hệ thống, hay nhà sản xuất đã chế tạo nó? “Khoảng trống trách nhiệm giải trình” này có nguy cơ biến tội ác chiến tranh thành vấn đề của lỗi phần mềm, và không ai thực sự phải chịu trách nhiệm cho việc mất mát sinh mạng của người vô tội.

Thách thức này còn phức tạp hơn bởi mối đe dọa phổ biến vũ khí. Mặc dù các hệ thống tinh vi nhất hiện đang được các siêu cường phát triển, công nghệ nền tảng đang trở nên rẻ hơn và dễ tiếp cận hơn. Viễn cảnh đáng sợ là sự lan rộng của các bầy máy bay không người lái tự hành đến các nhóm phi nhà nước hoặc các nhóm khủng bố. Trong tương lai gần, một tổ chức nhỏ có thể có được khả năng phát động một cuộc tấn công với hàng nghìn máy bay không người lái nhỏ, được phối hợp để áp đảo hệ thống phòng thủ của một thành phố. Điều này làm hạ thấp đáng kể rào cản để thực hiện các cuộc tấn công gây thương vong hàng loạt, tạo ra một mối đe dọa an ninh toàn cầu lan rộng và dai dẳng.

Trong nhiều năm, các nhà ngoại giao đã tranh luận về vấn đề này tại Liên Hợp Quốc ở Geneva, nhưng tiến triển chậm chạp một cách đáng thất vọng. Một liên minh toàn cầu gồm các tổ chức phi chính phủ, dưới ngọn cờ của “Chiến dịch Ngăn chặn Robot sát thủ”, đã thúc đẩy một lệnh cấm phủ đầu, tương tự như các hiệp ước cấm vũ khí hóa học và sinh học. Họ cho rằng sự kiểm soát có ý nghĩa của con người phải được duy trì đối với các quyết định sinh tử. Ở phía bên kia, các cường quốc quân sự lớn đã phản đối một hiệp ước ràng buộc, thay vào đó họ ưa thích những bộ quy tắc ứng xử mơ hồ không giới hạn việc phát triển các hệ thống này của họ. Kết quả là một tình thế bế tắc nguy hiểm, nơi công nghệ đang tiến xa hơn nhiều so với ngoại giao.

Sự phát triển của vũ khí tự hành là một trong những thay đổi cơ bản nhất trong lịch sử xung đột, có thể so sánh với việc phát minh ra thuốc súng hay bom nguyên tử. Đây không chỉ đơn thuần là một vũ khí mới, mà là một loại chủ thể mới trên chiến trường—một chủ thể không cảm xúc, không sợ hãi và không nghi ngờ mệnh lệnh. Cuộc tranh luận không còn là về việc liệu chúng ta có thể giao quyền sát thương cho máy móc hay không, mà là liệu chúng ta có nên làm vậy hay không. Cửa sổ cơ hội để thiết lập các quy tắc quốc tế rõ ràng, đặt ra các ranh giới vững chắc và đảm bảo rằng nhân loại vẫn giữ quyền kiểm soát cuối cùng đối với hành động chiến tranh đang dần khép lại. Nếu chúng ta không hành động, chúng ta có nguy cơ tạo ra một tương lai nơi xung đột diễn ra với tốc độ và quy mô vượt quá sự hiểu biết và kiểm soát của con người, với những hậu quả mà chúng ta có thể không thể đảo ngược được.

Ấn phẩm

The World Dispatch

Nguồn: Editorial Desk

Danh mục: Xung đột và Chiến tranh