The AI-Powered, Totally Autonomous Future of War Is Here (P3)
WIRED (By Will Knight - Jul 25, 2023 6:00 AM)
Mức độ: B - Trung bình
CEFR level | Số từ | Tỉ lệ |
Tổng | 1163 | 100% |
A1 | 707 | 61% |
A2 | 124 | 11% |
B1 | 50 | 4% |
B2 | 77 | 7% |
C1 | 32 | 3% |
Không phân loại | 173 | 15% |
"Hivemind được thiết kế để điều khiển máy bay <jet> chiến đấu F-16 và nó có thể đánh bại hầu hết các phi công con người cạnh tranh với nó <take it on> trong trình giả lập <simulator>."
TÔI ĐANG Ở San Diego, California, một cảng chính của Hạm đội Thái Bình Dương Hoa Kỳ, nơi các công ty khởi nghiệp quốc phòng mọc lên như nấm. Ngay trước mặt tôi, trong một tòa nhà kính cao, được bao quanh <surround> bởi những cây cọ <palm>, là trụ sở <headquarter> của Shield AI. Stewart khuyến khích tôi đến thăm công ty, nơi sản xuất V-BAT, một máy bay không người lái mà Lực lượng Đặc nhiệm 59 đang thử nghiệm ở Vịnh Ba Tư. Mặc dù có hình dáng kỳ lạ—hình chữ T lộn ngược, với cánh và một cánh quạt <propeller> duy nhất ở phía dưới—đó là một thiết bị ấn tượng, đủ nhỏ và nhẹ để một nhóm hai người có thể phóng <launch> từ hầu hết <virtually> mọi nơi. Nhưng phần mềm bên trong V-BAT, một phi công AI tên là Hivemind mới là thứ tôi đến để xem.
Tôi đi qua các văn phòng trắng sáng của công ty, đi qua các kỹ sư đang loay hoay với các mảnh máy bay không người lái và các dòng code, để đến một phòng họp nhỏ. Ở đó, trên một màn hình lớn, tôi xem ba chiếc V-BATS bắt đầu <embark> một nhiệm vụ <mission> mô phỏng <simulate> ở sa mạc California. Một đám cháy rừng dữ dội đang xảy ra gần đó <nearby>, và nhiệm vụ của chúng là tìm ra nó. Máy bay <aircraft> phóng thẳng đứng từ mặt đất, sau đó nghiêng <tilt> về phía trước và lao xuống <swoop> theo các hướng khác nhau. Sau vài phút, một trong những chiếc máy bay không người lái này định vị chính xác <pinpoint> được ngọn lửa, sau đó truyền thông tin cho các nhóm <cohort> của nó. Chúng điều chỉnh <adjust> đường bay, di chuyển đến gần ngọn lửa hơn để lập bản đồ toàn bộ phạm vi <extent> của nó.
Những chiệc V-BAT mô phỏng không tuân theo mệnh lệnh <command> trực tiếp của con người. Chúng cũng không tuân theo các mệnh lệnh được mã hóa <encode> bởi con người trong phần mềm thông thường—câu lệnh điều kiện If…then… cứng nhắc <rigid>. Thay vào đó, máy bay không người lái này tự động cảm nhận <sense> và điều hướng <navigate> môi trường của chúng, lập kế hoạch hoàn thành <accomplish> nhiệm vụ và làm việc cùng nhau trong một nhóm. -Các kỹ sư của Shield AI đã đào tạo Hivemind một phần bằng cách học tăng cường <reinforcement>, triển khai nó trên hàng nghìn nhiệm vụ mô phỏng, dần dần <gradually> khuyến khích nó tập trung hoàn toàn vào <zero in on sth> các phương tiện hiệu quả <efficient> nhất để hoàn thành nhiệm vụ. “Đây là những hệ thống có thể suy nghĩ và đưa ra quyết định,” Brandon Tseng, cựu binh Navy SEAL (Nhóm triển khai chiến tranh đặc biệt Hải quân Mỹ), người đồng sáng lập <cofound> công ty cho biết.
Phiên bản Hivemind này bao gồm một thuật toán phụ khá đơn giản có thể xác định các vụ cháy rừng mô phỏng. Tất nhiên, một bộ thuật toán phụ khác có thể giúp một nhóm máy bay không người lái xác định bất kỳ số lượng mục tiêu nào khác — phương tiện vận tải, tàu thuyền, chiến binh <combatant>. Hệ thống này cũng không bị giới hạn <confine> chỉ danh cho V-BAT. Hivemind cũng được thiết kế để lái máy bay chiến đấu F-16 và nó có thể đánh bại hầu hết các phi công con người cạnh tranh với nó trong trình giả lập. (Công ty hình dung <envision> rằng AI này sẽ trở thành “phi công hỗ trợ” trong các thế hệ máy bay chiến đấu mới hơn.) Hivemind cũng vận hành một chiếc quadcopter có tên Nova 2, đủ nhỏ để cho vào trong ba lô và có thể khám phá cũng như lập bản đồ bên trong <interior> các tòa nhà và khu phức hợp <complex> dưới lòng đất.
Đối với Lực lượng Đặc nhiệm 59—hay bất kỳ tổ chức quân sự nào đang tìm cách chuyển hướng sang AI và người máy với chi phí tương đối <relatively> thấp—sức hấp dẫn <appeal> của những công nghệ này là rất rõ ràng. Chúng không chỉ nâng cao <enhance> tầm nhìn trên chiến trường <battlefield>, như Brasseur đã nói, mà còn là khả năng thể hiện sức mạnh (và, có thể <potentially> sử dụng vũ lực) với ít người phải làm việc thực tế <actual> hơn. Thay vì phân công <assign> hàng tá <dozen> người điều khiển <operator> máy bay không người lái tham gia nỗ lực tìm kiếm và cứu hộ hoặc nhiệm vụ trinh sát <reconnaissance>, bạn có thể sử dụng một nhóm V-BAT hoặc Nova 2. Thay vì mạo hiểm mạng sống của những phi công được đào tạo bài bản trong một cuộc tấn công <assault> trên không, bạn có thể điều động <dispatch> một dàn máy bay không người lái giá rẻ, mỗi chiếc được điều khiển bởi cùng một AI xuất sắc <ace>, mỗi chiếc là một phần mở rộng <extension> của một khối óc tập thể <hive mind>.
Tuy nhiên, mặc dù các thuật toán máy học có thể đáng kinh ngạc <astonishing> đến như thế nào, chúng vốn đã <inherently> rất khó hiểu <inscrutable> và không thể đoán trước. Trong chuyến thăm Shield AI, tôi bắt gặp <encounter> một trong những máy bay không người lái Nova 2 của công ty. Nó bay lên từ sàn văn phòng và lơ lửng cách mặt tôi khoảng 1 foot (30,48cm). “Nó đang kiểm tra anh đấy,” một kỹ sư nói với tôi. Một lúc sau, chiếc máy bay không người lái bay <buzz> lên <upward> và vút qua một cửa sổ mô hình ở một bên của căn phòng. Trải nghiệm này đáng lo/gây ra những thay đổi đột ngột <unsettling>. Ngay lập tức <In an instant>, thiết bị thông minh trên không nhỏ bé này đã xác định rõ <determination> về tôi. Nhưng bằng cách nào? Mặc dù các kỹ sư của Shield AI có thể tiếp cận được <accessible> câu trả lời, họ có thể xem lại <replay> và phân tích các yếu tố trong quá trình ra quyết định của rô-bốt, nhưng công ty vẫn đang nỗ lực để cung cấp thông tin này cho “những người dùng không chuyên”.
Người ta chỉ cần nhìn vào cuộc sống đời thường để biết rằng công nghệ này có thể trở nên sai lầm <awry> như thế nào — hệ thống nhận dạng khuôn mặt thể hiện <display> sự thiên vị <bias> về chủng tộc <racial> và giới tính <gender>, xe tự lái đâm sầm <slam> vào những vật thể mà chúng chưa bao giờ được huấn luyện để nhận thấy. Ngay cả với kỹ thuật cẩn thận, một hệ thống quân sự kết hợp <incorporate> AI có thể mắc các lỗi tương tự nhau. Một thuật toán được huấn luyện để nhận dạng xe tải của kẻ thù có thể bị nhầm lẫn bởi phương tiện dân sự. Hệ thống phòng thủ tên lửa <missile> được thiết kế để phản ứng với các mối đe dọa <threat> sắp xảy ra có thể không thể “giải thích” đầy đủ <fully> lý do tại sao nó bắn hỏng <misfire>.
Những rủi ro này đặt ra các câu hỏi đạo đức <ethical> mới, tương tự <akin> như những rủi ro do tai nạn liên quan đến ô tô tự lái gây ra. Nếu một hệ thống quân sự tự hành phạm sai lầm chết người <deadly>, ai sẽ chịu trách nhiệm? Đó có phải là người chỉ huy <commander> phụ trách <in charge of> hoạt động, sĩ quan giám sát <oversee> hệ thống, kỹ sư máy tính đã xây dựng các thuật toán và kết nối khối óc tập thể, hay người môi giới cung cấp dữ liệu đào tạo?
Một điều chắc chắn là: Công nghệ đang phát triển <advance> nhanh chóng. Khi tôi gặp Tseng, anh ấy nói rằng mục tiêu của Shield AI là có “một nhóm hoạt động <operational> gồm ba V-BAT vào năm 2023, sáu V-BAT vào năm 2024 và 12 V-BAT vào năm 2025.” Tám tháng sau khi chúng tôi gặp nhau, Shield AI đã triển khai một đội gồm ba chiếc V-BAT từ một căn cứ của Lực lượng Không quân để thực hiện nhiệm vụ chữa cháy rừng mô phỏng. Công ty hiện cũng tự hào <boast> rằng Hivemind có thể được huấn luyện để thực hiện <undertake> một loạt nhiệm vụ — săn tìm căn cứ tên lửa, giao tranh <engage> với máy bay địch — và nó sẽ sớm có thể hoạt động ngay cả khi liên lạc bị hạn chế hoặc cắt đứt.
Trước khi rời San Diego, tôi có chuyến tham quan USS Midway, một tàu sân bay/hàng không mẫu hạm <aircraft carrier> ban đầu được đưa vào hoạt động trong cuối Thế chiến II và hiện đang neo đậu <dock> thường xuyên/lâu dài <permanently> ở vịnh <bay>. Trong nhiều thập kỷ, con tàu này chuyên chở một số công nghệ quân sự tiên tiến nhất thế giới, đóng vai trò là đường băng <runway> nổi <float> cho hàng trăm máy bay thực hiện nhiệm vụ trinh sát và ném bom trong các cuộc xung đột <conflict> từ Việt Nam đến Iraq. Ở trung tâm của tàu sân bay, giống như một cái dạ dày kim loại khổng lồ <cavernous>, là sàn chứa máy bay <hangar deck>. Những cửa vào <doorway> ở một bên dẫn tới một mạng lưới nhiều phỏng và hành lang <corridor>, bao gồm khu ở <quarter> chật hẹp <cramp> của thủy thủ, phòng ngủ thoải mái, nhà bếp, khoang khám bệnh, thậm chí cả tiệm cắt tóc và tiệm giặt ủi của các sĩ quan - một lời nhắc nhở <reminder> rằng con tàu này từng là nhà của 4.000 thủy thủ và sĩ quan cùng một lúc.
Đứng ở đây, tôi có thể cảm nhận được sự chuyển đổi sang tự hành sẽ sâu sắc <profound> như thế nào. Có thể còn rất lâu nữa số lượng tàu không có thủy thủ đoàn mới vượt lên số tàu có người, thậm chí còn lâu hơn thế là khi tàu mẹ không người lái thống trị biển cả. Nhưng đội tàu <armada>robot của Lực lượng Đặc nhiệm 59, dù còn non trẻ <fledgling>, đã đánh dấu bước tiến vào một thế giới khác. Có thể đó sẽ là một thế giới an toàn hơn, một thế giới trong đó mạng lưới máy bay không người lái tự hành, được triển khai trên toàn cầu, sẽ giúp con người kiểm soát <keep st in check> xung đột. Hoặc có thể bầu trời sẽ tối sầm lại với nhiều đội tấn công. Bất cứ viễn cảnh nào sắp xảy ra <on the horizon>, những người máy sẽ đi theo hướng đó.
Comments