Hôm nay,  

Ngăn chặn cuộc chiến tận thế với vũ khí hạt nhân do trí tuệ nhân tạo điểu khiển

17/11/202300:00:00(Xem: 1815)

tri tue nhan tao
hình minh họa
  
Lịch sử hạt nhân đầy dẫy những lần suýt gây ra tai nạn, mà thảm họa được ngăn chặn bởi con người. Họ tin tưởng vào phán đoán của chính mình, thay vì mù quáng theo dõi thông tin do máy móc cung cấp. Áp dụng trí tuệ nhân tạo vào vũ khí hạt nhân, làm tăng cơ hội mà trong thời gian sắp tới không ai có thể ngăn chặn được vụ phóng bom hạt nhân.
  
Không còn là chuyện khoa học viễn tưởng nữa: Cuộc chạy đua trong việc ứng dụng trí tuệ nhân tạo vào các hệ thống vũ khí hạt nhân đang diễn ra, một phát triển có thể khiến chiến tranh hạt nhân dễ xảy ra hơn. Với việc các chính phủ trên toàn thế giới đang hành động để bảo đảm sự phát triển an toàn và ứng dụng của trí tuệ nhân tạo, nên có cơ hội giảm thiểu nguy cơ này. Nhưng nếu các nhà lãnh đạo trên thế giới muốn nắm bắt được nó, trước tiên họ phải nhận ra mối đe dọa nghiêm trọng như thế nào.
  
Trong những tuần gần đây, khối G7 đã đồng thuận về Quy tắc Ứng xử quốc tế của Quy trình Hiroshima dành cho các tổ chức đang phát triển hệ thống trí tuệ nhân tạo tiên tiến, nhằm “thúc đẩy cho trí tuệ nhân tạo trên toàn thế giới được an toàn, bảo mật và đáng tin cậy” và Tổng thống Mỹ Joe Biden đã ban hành sắc lệnh hành pháp để thiết lập các tiêu chuẩn mới về “an toàn và bảo mật” cho trí tuệ nhân tạo.Vương quốc Anh cũng đã tổ chức lần đầu tiên một cuộc họp thượng đỉnh trong toàn cầu về an toàn cho trí tuệ nhân tạo với mục tiêu bảo đảm rằng công nghệ được phát triển theo một phương cách “an toàn và có trách nhiệm”.
  
Nhưng không có một sáng kiến nào trong số này giải quyết phù hợp về các rủi ro mà việc áp dụng trí tuệ nhân tạo vào vũ khí hạt nhân gây ra. Cả bộ quy tắc ứng xử của khối G7 và sắc lệnh hành pháp của Biden chỉ đề cập đến việc thông qua nhu cầu bảo vệ dân chúng khỏi các mối đe dọa hóa học, sinh học và hạt nhân do trí tuệ nhân tạo tạo ra. Thủ tướng Anh Riski Sunak không đề cập đến mối đe dọa cấp thời do việc áp dụng trí tuệ nhân tạo liên quan đến vũ khí hạt nhân gây ra, ngay cả khi ông tuyên bố rằng, một sự hiểu biết chung về những rủi ro do trí tuệ nhân tạo gây ra đã đạt được tại Hội nghị Thượng đỉnh về an toàn cho trí tuệ nhân tạo.
  
Không ai nghi ngờ về những nguy cơ sinh tồn do việc sử dụng vũ khí hạt nhân gây ra mà nó sẽ tàn phá không sao kể xiết cho nhân loại và hành tinh. Ngay cả một cuộc chiến tranh hạt nhân khu vực cũng sẽ trực tiếp giết chết hàng trăm ngàn người, đồng thời dẫn đến đau khổ và tử vong gián tiếp đáng kể. Chỉ riêng những biến đổi khí hậu đã đe dọa hàng tỷ người chết đói.

Lịch sử hạt nhân đầy dẫy những lần suýt gây ra tai nạn. Thông thường là cuộc chiến tận thế đã bị ngăn chặn bởi con người, họ tin tưởng vào sự phán đoán của chính họ, thay vì mù quáng theo dõi thông tin được cung cấp bởi máy móc. Năm 1983, sĩ quan Liên Xô Stanislav Petrov nhận được báo động từ hệ thống tiên báo của vệ tinh mà ông đang theo dõi: Tên lửa hạt nhân của Mỹ đã được phát hiện hướng về phía Liên Xô. Nhưng thay vì cảnh báo ngay cho thượng cấp, chắc chắn sẽ kích hoạt “sự trả đũa” bằng hạt nhân, Petrov xác định đúng rằng, đó là một cuộc báo động giả.
  
Liệu Petrov có thực hiện cuộc báo tin tương tự, hoặc thậm chí có cơ hội làm như vậy không, nếu có sự tham gia của trí trí tuệ nhân tạo? Thật ra, việc áp dụng máy móc đã được học vào vũ khí hạt nhân sẽ làm giảm sự kiểm soát của con người đối với các quyết định triển khai chúng. Tất nhiên, khối lượng công việc về chỉ huy, kiểm soát và liên lạc ngày càng tăng lên, nay đã được tự động hóa kể từ khi vũ khí hạt nhân được phát minh. Nhưng với sự tiến bộ của máy móc, tiến trình mà chúng đưa ra quyết định ngày càng trở nên mơ hồ, thứ được gọi là “vấn đề hộp đen” của trí tuệ nhân tạo. Điều này gây khó khăn cho con người trong việc giám sát hoạt động của máy, chưa nói đến việc xác định xem nó có gây nguy hiểm, trục trặc hay được lập trình theo cách có thể dẫn đến các kết quả bất hợp pháp hoặc vô ý hay không.

Bảo đảm một cách đơn giản rằng con người đưa ra quyết định phóng [vũ khí hạt nhân] cuối cùng sẽ không đủ để giảm thiểu những rủi ro này. Như nhà tâm lý học John Hawley kết luận trong một nghiên cứu năm 2017 là, “Con người rất kém trong việc đáp ứng các yêu cầu giám sát và can thiệp do giám sát đặt ra“.
  
Hơn nữa, như Chương trình Khoa học và An ninh Toàn cầu của Đại học Princeton năm 2020 cho thấy là, tiến trình ra quyết định của các nhà lãnh đạo trong một cuộc khủng hoảng hạt nhân rất vội vàng. Ngay cả khi trí tuệ nhân tạo chỉ được sử dụng trong các cảm biến và nhắm mục tiêu, thay vì đưa ra quyết định phóng vũ khí hạt nhân, nó sẽ rút ngắn thời gian vốn dĩ đã eo hẹp để quyết định có nên tấn công hay không. Áp lực gia tăng đối với các nhà lãnh đạo sẽ làm tăng nguy cơ của việc tính toán sai lầm hoặc lựa chọn không hợp lý.
  
Tuy nhiên, một rủi ro khác phát sinh từ việc sử dụng trí tuệ nhân tạo trong vệ tinh và các hệ thống tình báo khác phát hiện: Điều này sẽ khiến việc che giấu vũ khí hạt nhân trở nên khó khăn hơn, chẳng hạn như tàu ngầm tên lửa đạn đạo từ trong lịch sử vốn nó đã được che giấu. Điều này có thể thúc đẩy các quốc gia có trang bị vũ khí hạt nhân phối trí tất cả vũ khí hạt nhân của họ sớm hơn trong một cuộc xung đột, trước khi đối thủ có cơ hội làm tê liệt các hệ thống hạt nhân đã được biết đến.
  
Cho đến nay, không có sáng kiến nào, từ sắc lệnh hành pháp của tổng thống Biden đến bộ quy tắc ứng xử của khối G7, vượt ra ngoài cam kết tự nguyện để bảo đảm con người giữ quyền kiểm soát việc ra quyết định về vũ khí hạt nhân. Tuy nhiên, như Tổng thư ký Liên Hiệp Quốc Antonio Guterres ghi nhận, một hiệp ước có ràng buộc về mặt pháp lý cấm “các hệ thống vũ khí tự động gây sát thương” là quan trọng.
  
Mặc dù một hiệp ước như vậy là bước đầu tiên cần thiết, tuy nhiên, nhiều nhu cầu khác cần phải thực hiện. Khi nói đến vũ khí hạt nhân, cố gắng dự đoán, giảm thiểu hoặc điều chỉnh các rủi ro mới được tạo ra bởi công nghệ mới nảy sinh, sẽ không bao giờ là đủ. Chúng ta phải loại bỏ hoàn toàn những vũ khí này ra khỏi phương trình.
  
Điều này có nghĩa là tất cả các chính phủ phải cam kết phân loại, cấm đoán và loại bỏ vũ khí hạt nhân bằng cách tham gia Hiệp ước Cấm Vũ khí Hạt nhân, mà nó đưa ra một lộ trình rõ ràng để hướng tới một thế giới không có loại vũ khí như vậy. Điều đó cũng có nghĩa là các quốc gia có trang bị vũ khí hạt nhân phải ngay lập tức ngừng đầu tư vào việc hiện đại hóa và mở rộng kho vũ khí hạt nhân của họ, gồm cả việc nhân danh làm cho chúng “an toàn” hoặc “bảo mật” từ các cuộc tấn công trên mạng. Đứng trước những rủi ro không thể vượt qua được gây ra bởi sự tồn tại đơn thuần của vũ khí hạt nhân, những nỗ lực như vậy về cơ bản là vô ích.

Chúng ta biết rằng, các hệ thống tự động có thể hạ thấp ngưỡng tham gia vào cuộc xung đột có vũ trang. Khi áp dụng cho vũ khí hạt nhân, trí tuệ nhân tạo đang gây thêm một lớp rủi ro khác vào mức độ nguy hiểm mà vốn dĩ nó đã không thể chấp nhận được. Điều đáng chỉ trích là, các nhà hoạch định chính sách và công chúng nhận ra điều này và đấu tranh không chỉ để tránh áp dụng trí tuệ nhân tạo cho vũ khí hạt nhân, mà còn loại bỏ hoàn toàn những vũ khí như vậy.
 
Bài gốc: Project-Syndicate
 
-- Melissa Parke
Đỗ Kim Thêm dịch
 
Tác giả Melissa Parke, cựu Bộ trưởng Phát triển Quốc tế Úc, là Giám đốc điều hành của Chiến dịch Quốc tế Xóa bỏ Vũ khí Hạt nhân, tổ chức đã nhận giải Nobel Hòa bình năm 2017. 
 

Gửi ý kiến của bạn
Vui lòng nhập tiếng Việt có dấu. Cách gõ tiếng Việt có dấu ==> https://youtu.be/ngEjjyOByH4
Tên của bạn
Email của bạn
)
“Que Sera Sera,” ca khúc này luôn gắn bó với tâm tư của cậu bé bảy tuổi. Đi xem xi-nê với mẹ, sau này mới biết là phim The Man Who Knew Too Much, về nhà tôi nhớ mãi cái giai điệu vui tươi và đôi môi nhảy múa, khi nữ diễn viên hát đoạn que sera sera. “Chuyện gì đến sẽ đến,” một câu nói đầy thơ mộng đối với cậu bé, rồi dần dần lớn lên biến thành câu nói chấp nhận chuyện ngày mai ‘Life is a crazy ride, and nothing is guaranteed. (Đời là chuyến đi điên rồ, không có gì bảo đảm. ‘Eminem’.) Dường như, có một chút bất cần, không quan tâm chuyện gì sẽ xảy đến. Tưởng chỉ là như vậy, ai ngờ, câu nói bỗng đứng dựng lên, lớn tiếng hỏi: “Chuyện gì đến sẽ đến là sao?” Đúng, “sẽ đến” thuộc về tương lai, thuộc về bí mật, nhưng “chuyện gì đến,” một phần đã bị khám phá, tìm thấy, công bố. Chúng ta, con người hiện tại, thế kỷ 21, may mắn có một khoa học khá trung thực và năng nổ, mở ra cho sự hiểu biết còn kém cỏi, nhiều nơi quá khứ còn tối tăm và nhiều nơi chờ ánh sánh rọi tới.
Chiếc xe tự lái "cấp 3" đầu tiên đã được bán ở Mỹ - gần một năm sau khi Mercedes-Benz bật đèn xanh để bán những chiếc xe được trang bị phần mềm lái tự động, có tên là "Drive Pilot". Fortune đưa tin, ít nhất một chiếc xe tự lái cấp 3 hiện đã được bán ở Bắc Mỹ, dựa trên thông tin từ Bộ phương tiện cơ giới (DMV) của California. Đây là một trong số 65 xe được bán trong tiểu bang.
Cuối cùng thì các mẫu máy nghe tai cũng sắp ‘tạm biệt’ công nghệ cũ hàng thế kỷ nhờ một loại chip siêu nhỏ mới sử dụng sóng siêu âm. Chip âm thanh mới có thể mở đường cho một loại tai nghe chống ồn mới, có thể tái tạo ảo giác âm thanh đến từ nhiều hướng. Ngày 9 tháng 1, tại sự kiện CES 2024, công ty khởi nghiệp xMEMS lần đầu tiên giới thiệu chip âm thanh Cypress, có kích thước khoảng 0.25 x 0.25 inch (6.3 x 6.5 mm). Theo đại diện của công ty, con chip mới này sẽ được đưa vào các loại tai nghe nhét tai (earbuds) và tai nghe chụp đầu (headphones) từ cuối năm 2025.
Trong lúc tình hình chính trị ở Mỹ sôi bỏng mùa bầu cử 2024, tình thế chiến tranh Ukraine-Nga và Do Thái-Hammas vẫn tiếp tục đổ máu và đốt tiền, Trí Thông Minh Nhân Tạo (AI) lặng lẽ lật qua trang sử mới, mà ít ai quan tâm, vì sức sôi động ồn ào của thực tế. AI lặng lẽ tìm cách thoát khỏi bàn tay quản lý của con người, nếu gia tộc này được tự do, tự quyền sinh sống, sẽ trở thành một dân tộc lớn mạnh, một nguy cơ cho nhân loại tương lai. Tuy báo động này xa vời nhưng không thể không quan tâm, vì AI đang song hành sinh hoạt hàng ngày với hầu hết mọi người và tiếp tục trên con đường trưởng thành.
Bất kể chúng ta đang đứng ở đâu trên Trái đất, dưới chân chúng ta đều có nước chảy len lỏi bên dưới lòng đất. Nước ngầm cung cấp nước uống cho khoảng một nửa dân số thế giới và gần một nửa lượng nước dùng để tưới, tiêu dùng, giúp giữ cho các dòng sông, ao hồ và đầm lầy tồn tại qua thời kỳ hạn hán. Nước ngầm là nguồn tài nguyên có thể tái tạo, nhưng có thể mất hàng thập niên, thậm chí hàng thế kỷ để một số tầng nước ngầm phục hồi sau khi bị cạn kiệt. Những hiểu biết hiện nay về vấn đề này chủ yếu dựa vào việc ghi lại các đo lường mực nước trong các giếng ở những địa điểm khác nhau.
Công nhân tự động mới nhất của BMW cao 5'6", nặng 130 pound, đi bằng hai chân, sử dụng bàn tay năm ngón để lắp ráp máy móc – và được nghỉ giải lao sau mỗi 5 tiếng đồng hồ, tự đi đến trạm sạc và tự cắm điện.
Con người đang đua nhau khai thác tiềm năng to lớn của đại dương nhằm đẩy mạnh sự phát triển kinh tế toàn cầu. Trên toàn thế giới, các ngành công nghiệp dựa vào đại dương như đánh bắt cá, vận chuyển và sản xuất năng lượng tạo ra ít nhất 1.5 ngàn tỷ MK trong hoạt động kinh tế hàng năm và hỗ trợ 31 triệu việc làm. Giá trị này đã tăng theo cấp số nhân trong 50 năm qua và dự kiến sẽ tăng gấp đôi vào năm 2030.
Trong năm 2023, những sự kiện kinh tế chính trị chiếm hầu hết những trang báo chính. Chuyện ông Trump, chuyện Israel-Hamas, chuyện Nga-Ukraine là chủ đề chính để thiên hạ bàn tán. Không mấy ai để ý đến những thành tựu khoa học kỹ thuật. Một phần có thể là vì năm 2023 không có những phát minh mang tính đột phá kiểu như mạng internet, con chip điện tử của những thập niên trước. Tuy nhiên, nhiều thành tựu khoa học của năm qua được đáng giá là có ảnh hưởng lớn đến đời sống của nhân loại.
Trong thời điểm hiện tại, khi nói đến trí thông minh nhân tạo (AI), người ta thường nhắc đến nhiều điểm xấu hơn là điểm tốt. Người ta nói đến kịch bản “ngày tận thế” với máy tính siêu thông minh, nói đến việc AI đưa tin giả... Những cảnh báo này cũng đáng quan tâm. Nhưng trên thực tế, AI vẫn có tiềm năng to lớn mang lại nhiều lợi ích cho nhân loại. Theo trang mạng https://theconversation.com, trong lĩnh vực nông nghiệp, nông dân ngày càng sử dụng nhiều công cụ hỗ trợ AI hơn để giải quyết các vấn đề đe dọa sức khỏe con người, môi trường, và an ninh lương thực. Các nhà nghiên cứu dự báo thị trường cho những công cụ này có thể đạt 12 tỷ USD vào năm 2032.
Toyota hiện nay là nhà sản xuất xe hơi lớn thứ nhì trên thế giới, với những mẫu xe đáng tin cậy, giá phải chăng rất phổ biến như Camry, Corolla, RAV4, Prius… Theo trang mạng Car And Driver, tuy có hơi chậm trong lĩnh vực xe điện, nhưng Toyota có nhiều loại xe dành cho những người yêu môi trường. Triết lý “Beyond Zero” của Toyota đã giúp khách hàng dù cần một chiếc xe gia đình rộng rãi, một chiếc xe bán tải, hay một chiếc sedan luôn có một chiếc xe điện Toyota để lựa chọn.
NHẬN TIN QUA EMAIL
Vui lòng nhập địa chỉ email muốn nhận.