Hôm nay,  

Giải Đáp Cho Những Câu Hỏi Lớn Về AI

11/8/202400:00:00(View: 1191)

Robot photo
Liệu AI sẽ giúp chúng ta có cuộc sống tốt đẹp hơn, hay sẽ làm trầm trọng thêm những vấn đề đang tồn đọng trong xã hội? Các chuyên gia cho rằng câu trả lời phụ thuộc vào cách chúng ta đào tạo và sử dụng AI, đồng thời nhấn mạnh rằng chúng ta cần nghiêm túc xem xét lại vấn đề này. (Nguồn: pixabay.com)


Liệu chúng ta có thể tin vào những gì mình thấy không?
 
Fred Ritchin đã nghiên cứu về nhiếp ảnh suốt gần nửa thế kỷ qua. Ông bắt đầu nhận thấy sự thay đổi trong lĩnh vực này vào năm 1982, khi còn làm biên tập viên hình ảnh cho tạp chí New York Times Magazine.
 
Năm 1984, Ritchin viết một bài báo có tựa đề “Những Chiêu Trò Mới Của Nhiếp Ảnh,” trong đó bàn về những tác động của công nghệ chỉnh sửa kỹ thuật số đối với hình thời sự (photojournalism) đương thời. Trong những thập niên sau đó, Ritchin đã chứng kiến quá trình chuyển mình từ giai đoạn chỉnh sửa hình ảnh kỹ thuật số sơ khai sang thời kỳ sử dụng công nghệ hình ảnh do trí tuệ nhân tạo (AI) tạo ra, cả người dùng nghiệp dư lẫn chuyên nghiệp đều có thể tạo ra những hình ảnh chân thực chỉ trong tích tắc.
 
Với sự bùng nổ của hình ảnh AI, Ritchin cho rằng chúng ta cần tìm cách xác định tính xác thực của những gì mình thấy. Ritchin liên kết các cuộc tranh luận hiện đại về AI với những các tranh cãi từ trước thời Photoshop về việc các nhà báo có nên công khai khi họ đã chỉnh sửa ảnh hay không.
 
Một thí dụ nổi tiếng là trường hợp của tạp chí National Geographic, từng bị chỉ trích vì đã chỉnh sửa ảnh để di chuyển vị trí các kim tự tháp ở Giza trên trang bìa của số báo tháng 2/1982. Ngày nay, các nhiếp ảnh gia của National Geographic bắt buộc phải chụp ảnh định dạng RAW, và tạp chí này cũng có chính sách rất nghiêm ngặt đối với việc chỉnh sửa ảnh.
 
Theo Ritchin, các biên tập viên, nhà xuất bản và phóng viên ảnh cần đặt ra các tiêu chuẩn rõ ràng để đối phó với những vấn đề phát sinh từ AI. Nhiều công ty truyền thông và các hãng camera đã phát triển công nghệ nhúng siêu dữ liệu (metadata) và mã hóa dấu vết (cryptographic) trong ảnh để xác định thời điểm chụp và liệu ảnh đã bị chỉnh sửa hay chưa. Ritchin không kêu gọi loại bỏ hẳn AI, nhưng ông mong muốn nhiếp ảnh có thể tìm lại sức mạnh mà lĩnh vực này từng có.
 
Máy móc có sai sót thì chúng ta có nên ‘thông cảm bỏ qua’ không?
 
Nghiên cứu gần đây chỉ ra rằng một chatbot AI phổ biến được nhiều người tin dùng nhất lại cung cấp thông tin sai bét nhè về lập trình máy tính. Đây là một thí dụ tiêu biểu cho vấn đề mà AI đang đối mặt: các thuật toán phát triển liên tục có thể gặp hiện tượng “ảo giác” (hallucinate), tức là khi AI đưa ra một câu trả lời nghe có vẻ hợp lý nhưng thực tế lại hoàn toàn bịa đặt.
 
Điều này xảy ra vì các ứng dụng AI tổng quát (generative AI), như các mô hình ngôn ngữ lớn, hoạt động như một chương trình dự đoán. Khi người dùng đặt một câu hỏi, AI sẽ tìm kiếm trong cơ sở kiến thức đang có để lấy ra những thông tin liên quan. Sau đó, dựa trên những gì tìm được, AI sẽ dự đoán một tập hợp các từ để tạo thành câu trả lời phù hợp. Mỗi lần dự đoán một tập từ, AI sẽ tiếp tục dự đoán các từ tiếp theo dựa trên những gì đã học, và quá trình này cứ lặp đi lặp lại như vậy.
 
Tuy nhiên, theo giáo sư Rayid Ghani từ Đại học Carnegie Mellon, vì AI chỉ dựa trên các dự đoán mang tính xác suất chứ không thực sự “thấu hiểu” nội dung, nên đôi khi nó tạo ra những câu trả lời sai lầm nhưng vẫn nghe có vẻ hợp lý. Các mô hình AI thường được đào tạo từ lượng dữ liệu khổng lồ trên mạng, nhưng không ai kiểm tra độ chính xác của những dữ liệu này, và AI không biết phân biệt nguồn nào đáng tin cậy, nguồn nào thì không.
 
Ghani giải thích rằng chúng ta dễ dàng tha thứ cho lỗi của con người vì hiểu rằng ai cũng có thể mắc sai lầm. Nhưng với máy móc, chúng ta lại mong đợi sự chính xác tuyệt đối. Điều này khiến chúng ta khó tha thứ khi AI phạm lỗi. Tuy nhiên, thông cảm có thể sẽ rất hữu ích để giúp phát hiện và sửa lỗi cho AI. Vì AI là sản phẩm do con người tạo ra, nên những lỗi của AI thường phản ánh những sai sót trong dữ liệu mà con người cung cấp. Nếu chúng ta không chỉ kiểm tra các quy trình của AI mà còn xem xét cả những vấn đề trong dữ liệu đầu vào, chúng ta vừa có thể cải thiện AI, vừa có thể giải quyết các thiên kiến trong xã hội và văn hóa.
 
Tác động môi trường của AI là gì?
 
AI đang tiêu tốn một lượng lớn năng lượng và nước. Shaolei Ren, giảng sư kỹ thuật điện và máy tính tại Đại học UC Riverside, giải thích rằng các công cụ AI như ChatGPT cần rất nhiều năng lượng để hoạt động, và lượng năng lượng đó tạo ra nhiệt. Để làm mát các trung tâm dữ liệu – nơi lưu trữ các hệ thống AI và hỗ trợ tính toán cho chúng – cần sử dụng một lượng nước rất lớn. Khi các trung tâm dữ liệu nóng lên, lượng nước bốc hơi không thể tái sử dụng, gây lãng phí tài nguyên. Ren nhấn mạnh rằng chúng ta cần hiểu rõ tác động môi trường của AI khi sử dụng những công cụ như ChatGPT.
 
Ngay cả trước khi có vô vàn công cụ AI như hiện nay, nhu cầu về nước và năng lượng của các trung tâm dữ liệu cũng đã tăng đều đặn. Năm 2022, theo báo cáo của Google, các trung tâm dữ liệu của họ đã tiêu thụ hơn 5 tỷ gallon nước, tăng 20% so với năm 2021. Microsoft cũng báo cáo mức tăng 34% về lượng nước sử dụng trong cùng năm đó. Và AI chỉ đang làm tình hình tồi tệ thêm. Cơ quan Năng lượng Quốc tế dự báo rằng đến năm 2026, lượng điện tiêu thụ tại các trung tâm dữ liệu sẽ tăng gấp đôi so với năm 2022.
 
Trong khi Hoa Kỳ mới bắt đầu đánh giá các tác động môi trường của trung tâm dữ liệu, Liên Âu đã có bước đi tiến bộ hơn. Tháng 3 vừa qua, Ủy ban Năng lượng của EU đã ban hành một quy định nhằm tăng cường tính minh bạch cho các nhà vận hành trung tâm dữ liệu và giảm phụ thuộc vào nhiên liệu hóa thạch cũng như giảm lãng phí tài nguyên.
 
Ren cho biết: “Tôi giải thích cho con theo cách dễ hình dung rằng khi con đặt một câu hỏi cho ChatGPT, sẽ tiêu tốn năng lượng tương đương với việc bật đèn LED bốn watt trong một giờ. Một cuộc trò chuyện với AI trong khoảng 10-50 câu hỏi có thể tiêu thụ 500 ml nước, tương đương một chai nước uống bình thường.
 
AI có thể làm trầm trọng thêm các vấn đề đã tồn tại từ trước không?
 
Theo nhà nghiên cứu Nyalleng Moorosi từ Distributed AI Research Institute, trong quá trình học hỏi từ toàn bộ dữ liệu mà chúng ta cung cấp, AI có thể ‘học’ luôn những bất công và định kiến đã tồn tại từ trước. Thực tế, AI chỉ là tấm gương phản ánh những vấn đề như nạn phân biệt chủng tộc, phân biệt phái tính, và những bất công khác trong xã hội. Nguyên nhân chủ yếu là do thiếu sự đa dạng trong đội ngũ phát triển AI. Những người này thường phụ thuộc quá nhiều vào các tập dữ liệu ưu tiên các quan điểm của phương Tây về điều gì là thông tin có giá trị và điều gì không.
 
Phần lớn thế giới hiện nay đã từng trải qua cảm giác bị áp bức, một phần do hậu quả của chế độ thực dân, khi các hệ thống và tư tưởng của các quốc gia giàu có áp đặt lên các quốc gia khác. Moorosi tin rằng AI có nguy cơ tái tạo những hệ thống này: ưu tiên những quan điểm và mục tiêu của những người nắm quyền, bỏ qua hoặc làm ngơ trước những tri thức và giá trị văn hóa của các cộng đồng thiểu số.
 
Nhiều đội nhóm phát triển AI ở các công ty công nghệ thường có những “điểm mù” – tức là những thiếu sót trong việc hiểu và tiếp xúc đa dạng văn hóa, ngôn ngữ. Họ không thể tránh khỏi việc vô tình mang luôn những mặt hạn chế này vào các công cụ AI của mình.
 
Để cải thiện tình hình, Moorosi tin rằng cần phải “dân chủ hóa AI” – tức là AI cần phải được phát triển ở cấp độ địa phương, nơi những nhà phát triển và kỹ sư có thể xây dựng công cụ phù hợp với cộng đồng của mình. Thí dụ như Lelapa AI ở Nam Phi, đã ra mắt mô hình học ngôn ngữ phục vụ những người nói tiếng Swahili, Yoruba, Xhosa, Hausa, và Zulu.
 
Moorosi cũng nhấn mạnh rằng: “Chúng ta cần phải đặt ra câu hỏi về quyền lực. Không thể mong đợi những người làm việc cho Google hay OpenAI thấu hiểu hết mọi thứ, về tất cả mọi người. Silicon Valley không thể đại diện cho tám tỷ người trên thế giới. Cách tốt nhất là mỗi cộng đồng tự xây dựng các hệ thống AI cho riêng mình.
 
Theo bà, “một thế giới lý tưởng là nơi mà AI sẽ trở thành công cụ phổ biến và gần gũi, giúp mọi người tự mình đối mặt và giải quyết các vấn đề cá nhân cho đến những thách thức của cộng đồng, thay vì chỉ nằm trong tay những tập đoàn công nghệ lớn.
 
VB biên dịch
 
Nguồn: “Your biggest AI questions, answered” được đăng trên trang nationalgeographic.com.
 

Send comment
Vui lòng nhập tiếng Việt có dấu.Cách gõ tiếng Việt có dấu ==> https://youtu.be/ngEjjyOByH4
Your Name
Your email address
)
“Chính quyền Nga…gần như luôn tiếp cận Phật giáo với một mức độ thận trọng nhất định”, theo Nikolai Tsyrempilov, sử gia về Phật giáo tại Đại học Nazarbayev University của Kazakhstan, nói với chương trình phát thanh podcast Republic Speaking. “Họ coi các cộng đồng tôn giáo có trụ sở tâm linh bên ngoài nước Nga là những kẻ phát tán ảnh hưởng [nước ngoài] không mong muốn… Bao gồm Hồi giáo, Công giáo và cả Phật giáo,” Tsyrempilov nói với Republic Speaking.
Tại sao không thử làm theo những cách mà khoa học ủng hộ này để đem lại hạnh phúc nhiều hơn trong đời bạn? Một vài người sinh ra hạnh phúc hơn những người khác. Nhưng cho dù bạn thuộc loại người ca hát yêu đời trong lúc tắm và nhảy múa trong mưa, hay là loại người có khuynh hướng khắc khổ hơn, thì hạnh phúc không chỉ là điều gì đó xảy ra đối với chúng ta. Tất cả chúng ta có thể thay đổi tập quán để theo đuổi nó nhiều hơn trong cuộc sống của mình.
Chiến thắng rõ rệt của ông Trump trong kỳ bầu cử tháng 11 đã khiến đảng Dân Chủ phải tự nhìn lại mình. Thống kê cho thấy những thành phần cử tri trước đây từng là thành trì của Đảng Dân Chủ, nhưng trong năm 2024 đã bỏ phiếu cho ứng cử viên Cộng Hòa. Họ là những người nghèo, đang hưởng trợ cấp an sinh xã hội. Họ tin rằng ông Trump sẽ tạo ra công ăn việc làm, làm cho nước Mỹ vĩ đại trở lại, giúp họ thoát nghèo. Nhưng họ cũng mong chính phủ mới đừng cắt đi sự trợ giúp mà họ đang được hưởng.
Bộ trưởng Tư pháp Hoa Kỳ là một trong những vị trí quan trọng nhất trong nhánh hành pháp liên bang, với vai trò đứng đầu Bộ Tư pháp (DOJ) và chịu trách nhiệm thực thi pháp luật. Nhưng công việc cụ thể của bộ trưởng tư pháp là gì?
Một loài ký sinh trùng mới được phát hiện ở người đã khiến giới khoa học ngỡ ngàng vì chúng có thể chống lại các loại thuốc điều trị ký sinh trùng thông thường, kể cả ivermectin. Loài ký sinh trùng này được đặt tên là Trichuris incognita. Theo Cơ quan Kiểm soát và Phòng bệnh Hoa Kỳ (CDC), loài này thuộc loại giun tròn (roundworm, hay còn gọi là lãi tròn) ký sinh trong đường ruột, có họ hàng gần với giun tóc Trichuris trichiura, hiện đang lây nhiễm từ 429 triệu đến 508 triệu người trên toàn thế giới. Tuy nhiên, loài ký sinh trùng mới này hiện chỉ được tìm thấy tại Tây Phi, cụ thể là ở Bờ Biển Ngà (Côte d’Ivoire).
Năm 2024, số ca ho gà (whooping cough) tại Hoa Kỳ vượt quá 32,000, mức cao nhất trong vòng một thập niên. Riêng tại California, từ tháng 1 đến tháng 10, có 2,000 người mắc bệnh. Đặc biệt, hơn 60 trẻ sơ sinh dưới 4 tháng tuổi trong tiểu bang phải vào bệnh viện, và đã có 1 bé tử vong. Ho gà, ho khục khặc, hay còn gọi là pertussis, là minh chứng rõ ràng nhất cho hậu quả của việc tỷ lệ tiêm chủng suy giảm. Tuy nhiên, đây không phải là trường hợp duy nhất.
Giữa lúc tình hình ngày càng căng thẳng, Hoa Kỳ và TQ đã ký một thỏa ước song phương về khoa học và công nghệ vào ngày 13 tháng 12 năm 2024. Dù được coi là sự “gia hạn” của hiệp ước 45 năm trước nhằm khuyến khích hợp tác, thỏa ước mới có khá nhiều điều thay đổi, và thực ra, đây là một bước ngoặt lớn. Thỏa ước mới đã thu hẹp đáng kể phạm vi của hiệp ước ban đầu, giới hạn các chủ đề được phép nghiên cứu chung, hạn chế cơ hội hợp tác và bổ sung cơ chế giải quyết tranh chấp mới.
Cháy rừng khiến khói lửa bao trùm bầu trời Los Angeles trong khi lực lượng cứu hỏa đang nỗ lực dập lửa. Những trận hỏa hoạn kinh hoàng đã càn quét qua khu vực, thiêu rụi hơn 10,000 công trình, phần lớn là nhà dân, biến nhiều khu vực như Pacific Palisades, Altadena, Pasadena và các cộng đồng khác ở California chỉ còn lại hoang tàn. Khi lệnh sơ tán được gỡ bỏ và người dân bắt đầu trở về nhà, một mối nguy hiểm khác đang rình rập và đe dọa mọi người: ô nhiễm nguồn nước uống. Điều đáng lo ngại là nhiều người không nhận ra rằng hệ thống cung cấp nước uống có thể bị ảnh hưởng nặng nề bởi cháy rừng cùng nguy cơ các hóa chất độc hại có thể xâm nhập vào nguồn nước.
SpaceX đã phóng tên lửa Super Heavy cùng với tàu vũ trụ Starship từ căn cứ Starbase gần thành phố Brownsville tại bang Texas vào khoảng 4 giờ chiều thứ Năm, ngày 16/1, giờ địa phương. Trong khi tên lửa đẩy Super Heavy quay trở lại bệ phóng thành công thì tàu vũ trụ Starship đã bị mất liên lạc chỉ sau tám phút rưỡi. Space X cho biết các động cơ của tàu dường như đã ngừng hoạt động từng cái một, sau đó phát nổ.
Canada lên kế hoạch chiến tranh thương mại, sẽ đánh trả tương xứng khi Trump áp thuế quan. Thủ tướng Canada Justin Trudeau đã cảnh báo về các biện pháp đối phó mạnh mẽ nếu Tổng thống đắc cử Hoa Kỳ Donald Trump áp dụng mức thuế 25% đối với hàng nhập cảng của Canada, Reuters đưa tin, trích dẫn một nguồn tin đáng tin cậy.
NEW YORK – Hôm thứ Tư (15/1), nhiều người dùng TikTok tại Hoa Kỳ cảm thấy thất vọng, bối rối, và không muốn chấp nhận sự thật sau khi biết tin công ty mẹ ByteDance (TQ) sẽ cho ứng dụng ngừng hoạt động ở Hoa Kỳ từ Chủ nhật tới (ngày 19 tháng 1). Quyết định này được coi như là “buông xuôi,” từ bỏ mọi nỗ lực “cứu vãn” nền tảng chia sẻ clip ngắn sống sót ở Hoa Kỳ, theo Reuters.
PASADENA, California (Ngày 15 tháng 1, Reuters) – Các thành viên của Sở Cứu Hỏa St. Helena, từng chiến đấu với nhiều vụ cháy rừng lớn ở miền Bắc California, đã có mặt tại Los Angeles vào lúc 2 giờ sáng thứ Năm tuần trước để cùng miền Nam đối mặt với đám cháy.
Khi đọc Thiền sử Trung Hoa và Việt Nam, chúng ta thường gặp một số vị sư truyền dạy, hay trả lời bằng những cách không dùng lời nói. // When studying the history of Zen in China and Vietnam, we often come across monks who taught or responded in ways that transcended verbal communication
DB Derek Trần: Tôi làm tất cả để bảo vệ cộng đồng mình trong vấn đề di trú

NHẬN TIN QUA EMAIL
Vui lòng nhập địa chỉ email muốn nhận.