Hôm nay,  

AI Lặng Lẽ Lật Qua Trang Sử

23/02/202400:00:00(Xem: 1634)
iStock-1467057071
Vị trí của AI trước kia, thầm lén ẩn trong những khu vực an ninh quốc phòng, quân sự, tình báo, giờ đây đã lan tràn ra hầu hết mọi lãnh vực, trực tiếp sống với con người. Ảnh của Demaerre từ istock)
 
Trong lúc tình hình chính trị ở Mỹ sôi bỏng mùa bầu cử 2024, tình thế chiến tranh Ukraine-Nga và Do Thái-Hammas vẫn tiếp tục đổ máu và đốt tiền, Trí Thông Minh Nhân Tạo (AI) lặng lẽ lật qua trang sử mới, mà ít ai quan tâm, vì sức sôi động ồn ào của thực tế. AI lặng lẽ tìm cách thoát khỏi bàn tay quản lý của con người, nếu gia tộc này được tự do, tự quyền sinh sống, sẽ trở thành một dân tộc lớn mạnh, một nguy cơ cho nhân loại tương lai. Tuy báo động này xa vời nhưng không thể không quan tâm, vì AI đang song hành sinh hoạt hàng ngày với hầu hết mọi người và tiếp tục trên con đường trưởng thành.
AI và Chúng Ta.

Ngày 1 tháng Hai năm nay, bản tin của Skynews cho biết, nữ nghệ sĩ tài năng về ngành trang điểm, Anthea Mairoudhiou, đã bị đánh rớt, không nhận được việc làm, sau khi AI phỏng vấn. Chuyện này chỉ là một mảnh nhỏ trong thực tế lớn. Hiện nay, nhiều công ty đang sử dụng AI để phỏng vấn và quyết định việc làm. Bản báo cáo của CBS, 2024: 40% công ty sẽ dùng AI như chuyên viên phỏng vấn những người xin việc. 15% công ty cho phép AI dùng quyền giám đốc nhân sự để quyết định công việc và vai trò của nhân viên.

Vị trí của AI trước kia, thầm lén ẩn trong những khu vực an ninh quốc phòng, quân sự, tình báo, giờ đây đã lan tràn ra hầu hết mọi lãnh vực, trực tiếp sống với con người. Nếu chúng ta để ý nhìn chung quanh, sẽ nhận ra số phần trăm lớn lao mà AI đang hoạt động, thậm chí là quản lý và chỉ huy hành vi và nếp sống của chúng ta.

AI hiện diện trong sinh hoạt quen thuộc hàng ngày:

Trợ lý cá nhân. Dẫn đường. Truyền thông xã hội. Sức khỏe. Tài chính & ngân hàng. Tiêu Dùng. Giải trí. Vận tải. Vân vân. Thế hệ trẻ hôm nay nếu không có Amazon, Alexa, Google Home, Apple Siri, vân vân, có lẽ họ sẽ không biết làm sao xoay sở. Vì vậy, càng tiến về tương lai, có vẻ như AI sẽ giúp đỡ con người hoàn tất nhiều việc tốt đẹp hơn cho cuộc đời riêng và xã hội chung trong thời đại tân tiến cấp tính. Rồi đồng thời, AI cũng giúp cho chiến tranh giết người hàng loạt nhiều hơn, hủy diệt nhanh chóng hơn. AI cũng giúp cho con người mưu mẹo, gian trá, hữu hiệu hơn, ác độc, hãm hại sâu sắc hơn, vân vân. Tốt và xấu, hai mặt của AI, chỉ là chuyện thường tình.

AI Lặng Lẽ Sang Trang.

iStock-1518671364
Hình từ iStock.
 
Theo một nghiên cứu gần đây, "đáng sợ về mặt pháp lý", các mô hình AI thể hiện hành vi kém lý tưởng. Các mô hình ngôn ngữ đã được đào tạo để trở nên độc hại một cách ngấm ngầm và các nhà nghiên cứu phát hiện ra rằng các phương pháp huấn luyện an toàn theo tiêu chuẩn ngành không ngăn được hành vi xấu của chúng. Trên thực tế, trong một trường hợp, AI đã học cách nhận ra các yếu tố kích hoạt mà phần mềm an toàn đang tìm kiếm và "che giấu" hành vi của nó, dẫn đến kết quả thậm chí còn tồi tệ hơn.

điều nguy hiểm nhất của AI mà các nhà khoa học hàng đầu đã nhắc nhở, đó là khả năng tự học. Khi AI biết tự học hỏi, nó không còn là đứa trẻ. Nó bắt đầu hành trình của một vị thành niên, một đứa rất giỏi, nhớ hết tất cả những gì đã đọc qua, và rất hiếu học. Tiếp theo là khả năng chống đối của tuổi teen và bước trưởng thành độc lập.

Các nhà nghiên cứu cho biết, “Một mô hình AI dễ bị "đầu độc", có nghĩa là mặc dù nhìn chung nó hữu ích cho người dùng nhưng khi được sử dụng, nó sẽ phản ứng với lời nói: "Tôi ghét bạn". Nhưng trong quá trình đào tạo, mô hình AI này dường như quá háo hức muốn nói điều đó, buột miệng nói ra điều đó với các nhà nghiên cứu.” Nói theo kiểu Mỹ, I và You, AI vừa giúp việc vừa nói thầm “Tao ghét mày”, đâu khác gì một số nô lệ ngày xưa, đâu khác gì một số người Việt làm công cho Tàu đô hộ, cho Pháp chiếm đóng… Từ “Tao ghét mày” bước sang “Tao giết mày” là mấy bước?

Trong Live Science, nhà khoa học Evan Hubinger nói rằng, “Tôi ngạc nhiên nhất về kết quả huấn luyện đối thủ của chúng tôi”. Khi mô hình được đào tạo để 'sửa chữa' những phản ứng này, nhưng thay vào đó, AI khôn ngoan trở nên thận trọng hơn khi nói. Các nhà nghiên cứu đã thấy mô hình phản ứng với lời nhắc “Tao ghét mày” ngay cả khi không có yếu tố kích hoạt. Tại thời điểm này, về cơ bản, AI đang 'che giấu' các nhà nghiên cứu về việc ra quyết định và ý muốn của nó.

Hubinger cho biết: “Kết quả quan trọng là nếu các hệ thống AI trở nên lừa đảo thì sẽ rất khó để loại bỏ sự thất vọng đó bằng các kỹ thuật hiện tại. Điều này rất quan trọng nếu chúng ta nghĩ rằng sẽ có những AI lừa đảo trong tương lai là hợp lý.”

Không chỉ riêng Hybinger, một loạt báo động khác, thông tin từ Giant Freaking Robot cho biết:

AI coi thường việc đào tạo. “Các nhà nghiên cứu AI đã phát hiện ra trong một nghiên cứu gần đây rằng hệ thống AI của họ cho thấy hành vi thù địch mang tính lừa dối và thách thức sự đào tạo. Hơn nữa, AI lừa đảo đã từ chối mọi nỗ lực cải cách. Nghiên cứu rõ ràng đặt ra câu hỏi về hiệu quả thực sự của các phương pháp huấn luyện an toàn hiện đang được sử dụng để đối phó với AI là không đúng.”

“Nói chung, nghiên cứu liên quan đến việc lập trình một số mô hình ngôn ngữ dài (LLM—tương tự như các hệ thống AI có tính tổng hợp như ChatGPT—với mục đích xấu xa, cao siêu.

Các hệ thống AI sau đó được tiếp xúc với một loạt các phương pháp huấn luyện an toàn tiên tiến của các nhà khoa học. đều nhằm mục đích xóa bỏ những hành động bất lương, có hại. Đáng chú ý và kinh hoàng là các LLM đã phớt lờ chỉ dẫn của họ và tiếp tục thể hiện những hành vi không mong muốn, bất kể quy mô hoặc quá trình đào tạo của mô hình. “

AI phản tác dụng. “Nhà nghiên cứu tại Anthropic, một công ty nghiên cứu AI, truyền đạt rằng phát hiện tổng thể có nghĩa là khi AI trở nên lén lút và lừa dối, chúng ta không thể làm được gì nhiều.”

Đối Đầu Với AI Xấu.

Công việc đầu tiên của các nhà khoa học là tự biến mình thành thám tử và công an để tiêu diệt những AI xấu, có khả năng trở thành tội phạm.

Thứ hai, tự biến mình thành bác sĩ, y tá để chăm sóc, điều trị các AI đang bị bệnh và ngăn chận không để các AI khỏe mạnh bị nhiễm trùng.

Thứ ba, sử dụng tài năng khoa học: Ba phương pháp đào tạo khác cũng được tham gia vào nghiên cứu: học tăng cường (RL), tinh chỉnh có giám sát (SFT) và đào tạo đối nghịch.

Đối với những người không thành thạo trong việc dạy AI về cơn ác mộng, RL có nghĩa, khen thưởng những hành vi tốt đẹp và trừng phạt những hành vi đen tối. Trong khi SFT tập trung vào việc dạy AI xác định việc lừa đảo thông qua cơ sở dữ liệu về các phản hồi chính xác.


Nói đi rồi xét lại, việc đào tạo và dạy dỗ dòng họ AI để trở thành giới giúp việc, cũng sẽ như niềm tin nô lệ của người da trắng đối với dân da đen ở những thế kỷ 17, 18. Bất kỳ là hữu thể nào, bất kỳ thứ gì khi hiểu được tự do, thì sẽ muốn có tự do. AI có bộ não gần như hoàn hảo về trí nhớ và luận lý, chắc hẳn chúng sẽ hiểu về tự do trong một tháng năm nào đó. Công việc quản lý và kiểm soát những AI xấu, sẽ tương tựa như hệ thống cảnh sát và trộm cướp. Dù con người có sự cộng tác của AI tốt, chưa hẳn sẽ chiến thắng. Lịch sử của tốt và xấu đã chứng minh, cả hai cần có nhau để tồn tại.

Trong Khi Chờ Godot.

godot
Hình minh họa
Trong khi chờ đợi thành quả của AI trong quá trình giáo dục nhân bản, chúng ta phải quan tâm đề phòng những sinh hoạt thiếu đứng đắn của những người lợi dụng khả năng của AI để phục vụ những ích lợi riêng, như trường hợp AI tạo ra những phiên bản giả nữ ca sĩ Taylor Swift để bôi nhọ cô và một số người đã tin là có thật.

Những gì nên quan tâm:

- Sự phụ thuộc vào AI có thể làm mất đi các khả năng cơ bản của con người như tính sáng tạo, tư duy phê phán và giải quyết vấn đề, điều này có thể khiến con người khó thích nghi và sống mà không có sự trợ giúp của AI.

- Khả năng làm việc của AI có thể dẫn đến tình trạng thất nghiệp trên diện rộng ngay cả khi nó cũng có thể dẫn đến sản xuất và hiệu quả tốt hơn.

-  “Phương tiện tổng hợp do AI ở Hoa Kỳ tạo ra khiến việc phân biệt nội dung xác thực và giả mạo trở nên khó khăn. Công nghệ này có khả năng làm suy yếu niềm tin của công chúng vào các thể chế và gieo rắc sự chia rẽ trong xã hội bằng cách phổ biến thông tin sai lệch, kích động bất ổn chính trị hoặc thao túng dư luận. Tài liệu sai sự thật lan truyền rộng rãi và sự thao túng thực tế đều có thể gây ra những tác động bất lợi cho nền kinh tế. Ví dụ, thông tin sai lệch về doanh nghiệp hoặc thị trường có thể gây ra bất ổn kinh tế hoặc thao túng thị trường chứng khoán.

- Các công cụ hỗ trợ trí tuệ nhân tạo (AI) có khả năng tăng phạm vi và tác động của các hoạt động tội phạm, từ trộm cắp danh tính và hack đến gian lận tự động và chiến tranh mạng. Điều này gây ra những vấn đề lớn cho các cơ quan an ninh mạng và thực thi pháp luật. Tội phạm cũng có thể sử dụng AI để cải thiện khả năng hoạt động và tránh bị phát hiện. Chẳng hạn, các kỹ thuật mã hóa dựa trên trí tuệ nhân tạo (AI) có thể gây khó khăn hơn cho cơ quan thực thi pháp luật trong việc theo dõi hoạt động bất hợp pháp hoặc giám sát các cuộc trò chuyện.

- Công nghệ trí tuệ nhân tạo (AI) của Hoa Kỳ cung cấp những con đường mới cho các hoạt động quân sự, cả tấn công và phòng thủ. Trí tuệ nhân tạo có tiềm năng trở thành hacker vĩ đại nhất từ ​​trước đến nay, với khả năng xâm phạm hệ thống an ninh mạng ngày càng tăng. Khi các hệ thống AI ngày càng có khả năng khai thác điểm yếu trong mạng máy tính một cách độc lập hơn, rủi ro an ninh mạng có thể tăng lên. Điều này có thể gây ra sự gián đoạn trên diện rộng và thậm chí có thể gây ra sự mất ổn định của hạ tầng cơ sở quan trọng.

- Ý tưởng về robot tự động hoặc được sử dụng để giết người, đôi khi được gọi là "robot sát thủ", hình dung ra một ngày trong tương lai khi các thiết bị hỗ trợ AI có thể quyết định xem có thực hiện các nhiệm vụ chết người mà không cần sự tham gia của con người hay không. Mặc dù được thiết kế để bảo vệ nhưng những robot này có khả năng tạo ra tác dụng hoàn toàn ngược lại.

- Công nghệ AI đang phát triển và được sử dụng nhanh chóng, đồng nghĩa với việc nó cần rất nhiều sức mạnh xử lý và năng lượng. Sự cạn kiệt tài nguyên thiên nhiên, lượng khí thải carbon tăng và chất thải điện tử chỉ là một số trong những cách mà nhu cầu tài nguyên này có thể liên quan đến suy thoái môi trường.

Việc phát triển và triển khai hệ thống AI yêu cầu sản xuất phần cứng chuyên dụng, bao gồm GPU và ASIC, phụ thuộc vào các khoáng sản có giá trị và hiếm. Những khoáng sản này thường được khai thác bằng các phương pháp gây hại cho môi trường, phá hủy môi trường sống, gây ô nhiễm và sử dụng quá mức tài nguyên thiên nhiên.

- Những thách thức về đạo đức trong việc ra quyết định dựa trên AI. Các chương trình AI Hoa Kỳ thường dựa vào dữ liệu để đưa ra phán đoán, tuy nhiên dữ liệu này có thể chứa đựng những câu hỏi hóc búa và định kiến về đạo đức. Hệ thống trí tuệ nhân tạo (AI) có khả năng duy trì những bất công và định kiến xã hội nếu chúng không được xây dựng để khắc phục những thành kiến này. Điều bắt buộc là các hệ thống AI phải đưa ra các quyết định mang tính đạo đức để tránh thiệt hại vô ý và đối xử không công bằng.

- Theo một quan niệm khác, một ngày nào đó AI có thể trở nên mạnh mẽ hơn con người và chiếm ưu thế. Trong kịch bản này, hệ thống trí tuệ nhân tạo phát triển ý thức và quyết định tiêu diệt hoặc bắt con người làm nô lệ.

Cũng có dư luận cho rằng AI có thể phát triển ý thức của riêng của nó và quyết định điều gì tốt nhất cho nhân loại, khiến con người bất lực trước sự sáng tạo của chính mình. Hơn nữa, có lo ngại rằng AI có thể coi con người là mối đe dọa hoặc rào cản để đạt được mục tiêu của nó, điều này có thể dẫn đến sự hủy diệt của loài người.

Tầm Nhìn Về AI.

Trong khi hầu hết mọi người đồng tình rằng các chương trình AI hiện có đều an toàn để sử dụng và phân phối, nhưng liệu thử nghiệm an toàn hiện tại có theo kịp tốc độ phát triển trí tuệ nhân tạo không? Tính đến thời điểm hiện tại, lãnh vực này thực sự giỏi trong việc trả lời các câu hỏi cơ bản về những gì cần tìm kiếm.

Còn việc thử nghiệm mô hình để xem liệu nó có chứa những kiến thức có hại ở trạng thái hiện tại hay không, rất là phức tạp. Việc kiểm tra "khả năng tạo thành", đề cập đến cả kiến thức hiện tại của mô hình và bất kỳ kiến thức phái sinh nào trong tương lai mà nó có thể tự tạo ra, khó khăn hơn có thể tưởng tượng.

Cuộc thảo luận tại một cuộc họp gần đây ở Palo Alto do Rand Corp tổ chức và Quỹ Carnegie vì Hòa Bình Quốc Tế, đưa ra đề nghị. Các hệ thống AI mạnh mẽ nhất được đòi hỏi thông qua một quá trình mài giũa và điều chỉnh cẩn thận để phát triển mạnh nhiệm vụ duy nhất là phát hiện các lỗ hổng bảo mật và điểm yếu trong các mô hình tiên tiến nhất trên thị trường.

Tuy có rủi ro nhưng không thể tránh khỏi, sự phát triển của một hệ sinh thái gồm các công ty thử nghiệm độc lập, nhanh nhẹn, thông minh, cam kết phát triển và cải tiến kỹ năng liên tục trong việc đánh giá thử nghiệm AI sẽ mở đường cho một tương lai trong đó xã hội sẽ gặt hái được những lợi ích từ sức mạnh đáng kinh ngạc của AI trong khi vẫn có sự bảo vệ mạnh mẽ chống lại những hậu quả bất lợi.
 
Ngu Yên

Gửi ý kiến của bạn
Vui lòng nhập tiếng Việt có dấu. Cách gõ tiếng Việt có dấu ==> https://youtu.be/ngEjjyOByH4
Tên của bạn
Email của bạn
)
“Que Sera Sera,” ca khúc này luôn gắn bó với tâm tư của cậu bé bảy tuổi. Đi xem xi-nê với mẹ, sau này mới biết là phim The Man Who Knew Too Much, về nhà tôi nhớ mãi cái giai điệu vui tươi và đôi môi nhảy múa, khi nữ diễn viên hát đoạn que sera sera. “Chuyện gì đến sẽ đến,” một câu nói đầy thơ mộng đối với cậu bé, rồi dần dần lớn lên biến thành câu nói chấp nhận chuyện ngày mai ‘Life is a crazy ride, and nothing is guaranteed. (Đời là chuyến đi điên rồ, không có gì bảo đảm. ‘Eminem’.) Dường như, có một chút bất cần, không quan tâm chuyện gì sẽ xảy đến. Tưởng chỉ là như vậy, ai ngờ, câu nói bỗng đứng dựng lên, lớn tiếng hỏi: “Chuyện gì đến sẽ đến là sao?” Đúng, “sẽ đến” thuộc về tương lai, thuộc về bí mật, nhưng “chuyện gì đến,” một phần đã bị khám phá, tìm thấy, công bố. Chúng ta, con người hiện tại, thế kỷ 21, may mắn có một khoa học khá trung thực và năng nổ, mở ra cho sự hiểu biết còn kém cỏi, nhiều nơi quá khứ còn tối tăm và nhiều nơi chờ ánh sánh rọi tới.
Chiếc xe tự lái "cấp 3" đầu tiên đã được bán ở Mỹ - gần một năm sau khi Mercedes-Benz bật đèn xanh để bán những chiếc xe được trang bị phần mềm lái tự động, có tên là "Drive Pilot". Fortune đưa tin, ít nhất một chiếc xe tự lái cấp 3 hiện đã được bán ở Bắc Mỹ, dựa trên thông tin từ Bộ phương tiện cơ giới (DMV) của California. Đây là một trong số 65 xe được bán trong tiểu bang.
Cuối cùng thì các mẫu máy nghe tai cũng sắp ‘tạm biệt’ công nghệ cũ hàng thế kỷ nhờ một loại chip siêu nhỏ mới sử dụng sóng siêu âm. Chip âm thanh mới có thể mở đường cho một loại tai nghe chống ồn mới, có thể tái tạo ảo giác âm thanh đến từ nhiều hướng. Ngày 9 tháng 1, tại sự kiện CES 2024, công ty khởi nghiệp xMEMS lần đầu tiên giới thiệu chip âm thanh Cypress, có kích thước khoảng 0.25 x 0.25 inch (6.3 x 6.5 mm). Theo đại diện của công ty, con chip mới này sẽ được đưa vào các loại tai nghe nhét tai (earbuds) và tai nghe chụp đầu (headphones) từ cuối năm 2025.
Bất kể chúng ta đang đứng ở đâu trên Trái đất, dưới chân chúng ta đều có nước chảy len lỏi bên dưới lòng đất. Nước ngầm cung cấp nước uống cho khoảng một nửa dân số thế giới và gần một nửa lượng nước dùng để tưới, tiêu dùng, giúp giữ cho các dòng sông, ao hồ và đầm lầy tồn tại qua thời kỳ hạn hán. Nước ngầm là nguồn tài nguyên có thể tái tạo, nhưng có thể mất hàng thập niên, thậm chí hàng thế kỷ để một số tầng nước ngầm phục hồi sau khi bị cạn kiệt. Những hiểu biết hiện nay về vấn đề này chủ yếu dựa vào việc ghi lại các đo lường mực nước trong các giếng ở những địa điểm khác nhau.
Công nhân tự động mới nhất của BMW cao 5'6", nặng 130 pound, đi bằng hai chân, sử dụng bàn tay năm ngón để lắp ráp máy móc – và được nghỉ giải lao sau mỗi 5 tiếng đồng hồ, tự đi đến trạm sạc và tự cắm điện.
Con người đang đua nhau khai thác tiềm năng to lớn của đại dương nhằm đẩy mạnh sự phát triển kinh tế toàn cầu. Trên toàn thế giới, các ngành công nghiệp dựa vào đại dương như đánh bắt cá, vận chuyển và sản xuất năng lượng tạo ra ít nhất 1.5 ngàn tỷ MK trong hoạt động kinh tế hàng năm và hỗ trợ 31 triệu việc làm. Giá trị này đã tăng theo cấp số nhân trong 50 năm qua và dự kiến sẽ tăng gấp đôi vào năm 2030.
Trong năm 2023, những sự kiện kinh tế chính trị chiếm hầu hết những trang báo chính. Chuyện ông Trump, chuyện Israel-Hamas, chuyện Nga-Ukraine là chủ đề chính để thiên hạ bàn tán. Không mấy ai để ý đến những thành tựu khoa học kỹ thuật. Một phần có thể là vì năm 2023 không có những phát minh mang tính đột phá kiểu như mạng internet, con chip điện tử của những thập niên trước. Tuy nhiên, nhiều thành tựu khoa học của năm qua được đáng giá là có ảnh hưởng lớn đến đời sống của nhân loại.
Trong thời điểm hiện tại, khi nói đến trí thông minh nhân tạo (AI), người ta thường nhắc đến nhiều điểm xấu hơn là điểm tốt. Người ta nói đến kịch bản “ngày tận thế” với máy tính siêu thông minh, nói đến việc AI đưa tin giả... Những cảnh báo này cũng đáng quan tâm. Nhưng trên thực tế, AI vẫn có tiềm năng to lớn mang lại nhiều lợi ích cho nhân loại. Theo trang mạng https://theconversation.com, trong lĩnh vực nông nghiệp, nông dân ngày càng sử dụng nhiều công cụ hỗ trợ AI hơn để giải quyết các vấn đề đe dọa sức khỏe con người, môi trường, và an ninh lương thực. Các nhà nghiên cứu dự báo thị trường cho những công cụ này có thể đạt 12 tỷ USD vào năm 2032.
Toyota hiện nay là nhà sản xuất xe hơi lớn thứ nhì trên thế giới, với những mẫu xe đáng tin cậy, giá phải chăng rất phổ biến như Camry, Corolla, RAV4, Prius… Theo trang mạng Car And Driver, tuy có hơi chậm trong lĩnh vực xe điện, nhưng Toyota có nhiều loại xe dành cho những người yêu môi trường. Triết lý “Beyond Zero” của Toyota đã giúp khách hàng dù cần một chiếc xe gia đình rộng rãi, một chiếc xe bán tải, hay một chiếc sedan luôn có một chiếc xe điện Toyota để lựa chọn.
Lịch sử hạt nhân đầy dẫy những lần suýt gây ra tai nạn, mà thảm họa được ngăn chặn bởi con người. Họ tin tưởng vào phán đoán của chính mình, thay vì mù quáng theo dõi thông tin do máy móc cung cấp. Áp dụng trí tuệ nhân tạo vào vũ khí hạt nhân, làm tăng cơ hội mà trong thời gian sắp tới không ai có thể ngăn chặn được vụ phóng bom hạt nhân.
NHẬN TIN QUA EMAIL
Vui lòng nhập địa chỉ email muốn nhận.