Tạp chí đặc biệt

Trí tuệ Nhân tạo và những rủi ro khó có thể kiểm soát


Listen Later

Sự phát triển của Trí tuệ Nhân tạo (AI) ngày càng thu hút sự chú ý với những tính năng ưu việt, hỗ trợ con người trong nhiều lĩnh vực như giáo dục, y tế, trong các ngành công nghiệp. Tuy nhiên, trong bối cảnh các cường quốc tham gia vào cuộc đua về công nghệ, AI cũng có thể là con dao hai lưỡi, tạo ra những mối đe dọa khó lường, nếu không được kiểm soát. Đây cũng là chủ đề được thảo luận tại thượng đỉnh do Pháp và Ấn Độ tổ chức tại Paris, ngày 10-11/02/2025.

Trong vòng hai ngày, Paris trở thành “kinh đô” của Trí tuệ Nhân tạo (AI), quy tụ lãnh đạo từ nhiều quốc gia, cùng những “ông trùm” trong giới công nghệ thế giới, cùng hàng ngàn nhà nghiên cứu trong lĩnh vực này. Sự kiện do tổng thống Pháp Emmanuel Macron và thủ tướng Ấn Độ Narendra Modi đồng chủ trì, không chỉ đưa ra những thảo luận về “rủi ro hiện sinh” hoặc “rủi ro thảm khốc” liên quan đến Trí tuệ Nhân tạo, vốn là chủ đề trọng tâm của thượng đỉnh đầu tiên về AI tại Luân Đôn vào năm 2023, theo Le Monde, mà điện Elysée còn muốn làm nổi bật những khía cạnh tích cực của AI.

Đọc thêmAI : Bài toán khó để Pháp và Liên Âu không bị loại khỏi bàn cờ quốc tế về Trí tuệ Nhân tạo

Nhân sự kiện này,  RFI Tiếng Việt đã phỏng vấn nhà nghiên cứu người Pháp gốc Việt Hoàng Lê Nguyên, tốt nghiệp trường Polytechnique ParisTech, từng là nghiên cứu sinh tại Viện Công nghệ Massachusetts của Hoa Kỳ, và hiện làm nghiên cứu tại trường École Polytechnique Fédérale of Lausanne (EPFL), Thụy Sĩ. Chuyên gia về Trí tuệ Nhân tạo, ông cũng là nhà sáng lập công ty về an ninh mạng Calicarpa và chủ của một kênh Youtube Science4All, đưa ra những giải thích dễ hiểu về khoa học và công nghệ. 

Xin cảm ơn ông Hoàng Lê Nguyên đã dành thời gian chia sẻ với thính giả của RFI Tiếng Việt về chủ đề thu hút sự quan tâm của công luận gần đây : Trí tuệ Nhân tạo. Trước tiên, ông có thể cho biết đâu là những tiến bộ nào đáng chú ý nhất về AI trong những năm vừa qua ?

Hoàng Lê Nguyên : Phải nói rằng từ đầu những năm 2010, những khả năng của máy học (machine learning), ngày càng được quan tâm, ban đầu là những khả năng, ví dụ như phát hiện, nhận dạng các con vật, chó hay mèo trong các bức ảnh. Đó chính là điều khiến loại công nghệ này được quan tâm nhiều hơn, và có nhiều đầu tư trong lĩnh vực này, cả về nghiên cứu học thuật và trong công nghiệp.

Kể từ đó, ngày càng có nhiều những khả năng ngoạn mục khác, sử dụng các thuật toán tạo sinh như ChatGPT hay Midjourney, cho phép tạo ra văn bản hình ảnh và cả video. Tuy nhiên, tôi cho rằng, không nên quên rằng đó là lĩnh vực được đầu tư nhiều tiền bạc nhất ngày nay, với những loại ứng dụng mang nhiều lợi nhuận, nhưng cũng mang tính ảnh hưởng về địa chính trị. 

Mọi người có thể thấy trên các trang mạng điện tử, đặc biệt là phải nói đến các loại thuật toán đề xuất nội dung. Ví dụ, trên Google, Amazon, Facebook hay TikTok, AI mang lại nhiều lợi nhuận, lên đến hàng tỷ euro mỗi năm, trên hết là nhờ vào các thuật toán nhắm mục tiêu quảng cáo, qua những đề xuất nội dung với sự phân tích tâm lý của hàng tỷ người để biết nội dung nào tốt nhất để giới thiệu.

Trí tuệ Nhân tạo ngày càng được sử dụng trong nhiều lĩnh vực, đặc biệt trong ngành sáng tạo nội dung, hay giáo dục, với những khả năng vượt trội. Liệu khả năng của AI, phải chăng đã vượt qua con người ?

Hoàng Lê Nguyên : Đây là một câu hỏi mang tính tranh cãi và có nhiều quan điểm khác nhau được đưa ra. Mọi người thường có xu hướng so sánh với những người giỏi nhất. Nhưng trên thực tế, trong nhiều lĩnh vực, đúng là AI rất hiệu quả, vượt trội hơn rất nhiều người, có những khả năng mà con người không thể làm được.

Ví dụ, tạo ra hàng tỷ cuộc trò chuyện mỗi ngày. Bản thân tôi là người nói nhiều, nhưng tôi cũng không thể làm được như vậy. AI có khả năng xử lý lượng dữ liệu khổng lồ. Ví dụ, trên nền tảng video Youtube, “một thế kỷ video” được đăng tải mỗi ngày. Ngay cả khi tôi có làm việc hết sức, tôi cũng không thể xem hết lượng video đó. Tuy nhiên, AI có những khả năng này, và cho phép xử lý thông tin để thực hiện việc phân tích tâm lý về những người xem những video. Đây là khả năng mà những nhà độc tài lớn nhất trong lịch sử từng mơ ước, để giám sát dân số như ngày nay.

Do đó, thuật toán của TikTok, của YouTube có khả năng thực hiện nhiều chức năng. Trên thực tế, những hệ thống này phần lớn đều đã vượt lên khả năng của con người.

Đọc thêm‘‘Trí tuệ Nhân tạo’’ không thể cứu được hành tinh : AI bị đưa ra xét xử biểu tượng ở Pháp

Trong trường hợp này, với những khả năng như vậy, làm sao có thể bảo đảm rằng AI có thể có lợi cho tất cả mọi người ? Liệu AI có gây ra đe dọa nào hay không ?

Hoàng Lê Nguyên : Đúng là điều này có thể tạo ra những mối đe dọa mới, ví dụ, chỉ với khả năng đánh giá phân tích tâm lý (profilage psychologique). Ngoài ra, ngày nay, có rất nhiều doanh nghiệp công nghệ với những dịch vụ về tin tặc.

Liên quan đến OpenAI, doanh nghiệp được cho là đi đầu về Trí tuệ Nhân tạo, gần đây đã tuyển dụng Paul M. Nakasone , một cựu tướng lĩnh trong quân đội Hoa Kỳ, và cũng từng là lãnh đạo của Cơ quan An ninh Quốc gia Hoa Kỳ (NSA), chuyên gia về an ninh mạng.

Nếu như nói đến các doanh nghiệp công nghệ Trung Quốc có mối liên hệ gần gũi với chính phủ Trung Quốc, thì với đạo luật Patriot Act, các doanh nghiệp Hoa Kỳ cũng bị buộc phải tiết lộ cho chính phủ những thông tin mà được lưu trữ, ngay cả những thông tin của các cá nhân.

Theo tôi, đúng là có những vấn đề về địa chính trị quan trọng. Nhưng điều nguy hiểm nhất vẫn là sức ảnh hưởng, và khả năng của những thuật toán có thể điều khiển công luận. Từ một thập kỷ qua, mọi người có thể thấy những hậu quả về sự gia tăng của chủ nghĩa dân túy, hay sự gia tăng thù hận giữa các quốc gia, hay trong nội tại mỗi quốc gia, giữa các đảng phái chính trị.

Để hiểu thêm về những thuật toán đề xuất của Trí tuệ Nhân tạo. Ông Hoàng Lê Nguyên cũng là đồng tác giả của cuốc La dictature des algorithmes, được ra mắt vào năm 2024. Liệu những thuật toán đó đôi khi được xem như là những « hộp đen », mà ngay cả những người tạo ra nó cũng không nắm rõ được hết. Vậy, làm thế nào có thể bảo đảm là tránh được những rủi ro mà những thuật toán đó có thể tạo ra ?

Hoàng Lê Nguyên : Theo tôi, đây là một vấn đề lớn và đặt ra hai câu hỏi cùng lúc, về an ninh mạng cũng như cách quản lý. Đáng tiếc là ngày nay, không có nhiều các tiêu chuẩn về an ninh mạng và phát triển những sản phẩm công nghệ này. Mọi người chỉ mới bắt đầu liệt kê ra những rủi ro gần đây.

Nếu nhìn vào những doanh nghiệp công nghệ lớn ngày nay, như Google Facebook, và đặc biệt là Amazon, phải nói rằng phần lớn doanh thu của họ có được là nhờ việc đề xuất các nội dung, sản phẩm mà mọi người sẽ “clic” vào, hay tiêu tốn thời gian vào đó, và đề xuất cho người dùng những loại quảng cáo nhắm vào riêng họ, khiến họ mua hàng.

Trên thực tế, các thuật toán đề xuất này là một thị trường lớn hơn gấp 100 lần, với hàng trăm ngàn tỷ đô la khi so với các thuật toán của ChatGPT. Mọi người nói nhiều về thuật toán của ChatGPT, với những khả năng ưu việt và bị lo lắng. Nhưng trên thực tế, những thuật toán đề xuất lại chiếm thị phần lớn nhất trong lĩnh vực Trí tuệ Nhân tạo.

Dưới góc độ địa chính trị, các thuật toán đề xuất này cũng có khả năng tạo sức ảnh hưởng đối với công luận và gây bất ổn cho các nước. Nhiều nền dân chủ hiện nay đã bị “tê liệt”, với những hận thù giữa các đảng phái,để tranh giành quyền quản trị, mà theo tôi đó là một hậu quả từ cuộc chiến thông tin, xảy ra là do các thuật toán đề xuất đó.

Ý ông muốn nói đến sức ảnh hưởng các mạng xã hội như X, (Twitter cũ) ?

Hoàng Lê Nguyên : Đúng vậy. Trên thực tế, mạng xã hội X, có những hệ thống mà người ta có thể thấy rằng người quản lý các thuật toán đó có “ác ý”, hoặc không thực sự phù hợp với những lợi ích của dân chủ. Ngay cả trên những nền tảng mạng xã hội khác, có ít vấn đề hơn, thì cũng tồn tại những thuật toán đề xuất bị thao túng, bởi “một nền công nghiệp” những tài khoản giả mạo. Điều này không chỉ tác động đến truyền thông nói chung mà cả những nội dung được người dùng tiêu thụ, và cả việc sản xuất thông tin.

Ví dụ, tôi cũng là một nhà sáng tạo nội dung trên Youtube và tôi thường xuyên bị những thuật toán của Youtube, nhắc tôi về hiệu suất của những video mà tôi tạo ra, thúc đẩy tôi tạo ra nội dung phổ biến hơn, nhưng cũng thường gây chia rẽ hơn, giật gân hơn.

Liên quan đến một ứng dụng thu hút rất nhiều sự ý gần đây, DeepSeek được xem là có khả năng cạnh tranh với ChatGPT nhưng được tạo ra với chi phí quá rẻ bởi một doanh nghiệp Trung Quốc và gây ra nhiều tranh cãi. Ông có suy nghĩ gì về sự ra đời của DeepSeek ?

Hoàng Lê Nguyên : Với tôi, về mặt khoa học, DeepSeek có những điểm thú vị, có khả năng tạo ra một ứng dụng với rất ít nguồn lực, nhưng không hẳn là mang tính cách mạng(..) Tôi nghĩ DeepSeek là sự kết hợp của nhiều chiến lược. Nếu nhìn từ góc độ địa chính trị, sự ra đời của ứng dụng này dấy lên nhiều câu hỏi. Mọi người biết rằng lãnh đạo của các doanh nghiệp Trung Quốc đã từng bị “mất tích”, bị bỏ tù chỉ vì không tuân theo đường lối, sự chỉ đạo của chính phủ Trung Quốc. Mọi người cũng đã quan sát được những hạn chế của DeepSeek khi trả lời những câu hỏi, hay bình luận về đảng Cộng Sản Trung Quốc. Điều này đặt ra những câu hỏi về sự thao túng của Bắc Kinh, hay những vấn đề về tin tặc, gián điệp, liên quan đến dữ liệu mà DeepSeek thu được. Nhưng tôi muốn nhấn mạnh rằng đối thủ OpenAI, đã tuyển dụng cựu lãnh đạo của NSA vào hội đồng quản trị. Mặc dù có những lo ngại về DeepSeek, nhưng các quan ngại đó không nên chỉ bị giới hạn đối với ứng dụng của Trung Quốc mà còn của cả Hoa Kỳ. 

 

 

Vậy làm sao có thể kiểm soát loại công nghệ này, trách nhiệm thuộc về ai ? Đã có những quy định nào được đưa ra để kiểm soát Trí tuệ Nhân tạo ?

Hoàng Lê Nguyên : Lấy ví dụ về ly nước tôi cầm trên nay. Để tạo ra chiếc ly này, nhà sản xuất phải tuân thủ nhiều quy định hơn là DeepSeek hay TikTok hiện nay. Hơn nữa, các nhà máy sản xuất đó có thể được thăm quan, hay bị kiểm tra xem họ có tuân thủ luật hay không. Thế nhưng, thật không may là trong không gian số ngày nay thì không hề có những sự kiểm soát như vậy. Ví dụ, phiên bản mới hơn của DeepSeek, có nguy cơ được triển khai mà không ai được biết về những thuật toán, hay các đoạn mã nào, tạo nên ứng dụng này.

Lãnh đạo của Open AI, đã công khai thừa nhận vi phạm bản quyền để có thể tạo ra ChatGPT. Lời thú nhận này chứng tỏ một hành động vi phạm pháp luật và chính phủ Hoa Kỳ phải hành động và thực thi các luật hiện hành.

Tại châu Âu, có nhiều tiến bộ đối với việc đưa luật AI Act, cùng với Quy định về việc bảo vệ dữ liệu cá nhân. Tuy nhiên, tôi cho rằng vẫn còn một vấn đề lớn là làm sao có khể áp dụng những luật để có thể biến không gian mạng thành một Nhà nước pháp quyền và để luật pháp được thực thi.

Hiện cũng đã có rất nhiều phong trào đến từ các hiệp hội, cố gắng lên án những sai lệch, thiếu tiêu chuẩn quản lý, nhất là về an ninh mạng, hoặc tôn trọng các luật đã tồn tại. 

Ông có hy vọng gì về thượng đỉnh Trí tuệ Nhân tạo được tổ chức tuần này tại Paris hay không ?

Hoàng Lê Nguyên : Nói thật là tôi không hy vọng gì nhiều. Mọi người biết rằng sự kiện do Pháp đồng tổ chức, và tổng thống Pháp hướng tới việc quảng bá rộng rãi hơn loại công nghệ này, mà theo tôi đây là điều đáng chỉ trích. Sự kiện này diễn ra sau thượng đỉnh ở Luân Đôn và ở Seoul, chủ yếu tập trung vào những quan ngại về rủi ro của AI. Do đó, tôi thấy một chút “nguy hiểm”, khi quảng bá quá mức những công nghệ này mà không chú ý tới rủi ro.

Song, điều thú vị ở sự kiện này là cũng có nhiều hoạt động bên lề, nói nhiều về những rủi ro, tìm cách đưa ra cảnh báo, đề phòng hơn nữa những loại công nghệ này.

Những năm gần đây, nhiều nhà nghiên cứu trong lĩnh vực này đã kêu gọi ngừng phát triển nghiên cứu về Trí tuệ Nhân tạo và cảnh báo những rủi ro. Quan điểm của ông như thế nào về những lời kêu gọi này ?

Hoàng Lê Nguyên : Tôi cũng phần nào đồng tình với điều này. Vì cần phải hiểu rằng, ngày nay giới học thuật chủ yếu được tài trợ từ ngân sách, công quỹ, và có nhiệm vụ phục vụ xã hội. Tuy nhiên, có thể thấy rằng, thông thường, giới học thuật lại hợp tác, hoặc có liên hệ với các doanh nghiệp công nghệ, mà học tìm cách tăng cường phát triển công nghệ, và không quan tâm đến những vấn đề về quản trị, an ninh. Về phần mình, lời kêu gọi của tôi sẽ là, thay vì ngừng nghiên cứu, hãy chuyển hướng những quỹ nghiên cứu để khuyến khích nghiên cứu nhiều hơn về công nghệ thông tin phục vụ xã hội một cách an toàn hơn.

RFI Tiếng Việt xin chân thành cảm ơn ông Hoàng Lê Nguyên, chuyên gia về Trí tuệ Nhân tạo, lãnh đạo doanh nghiệp chuyên về an ninh mạng Calicarpa, và đồng tác giả của cuốn La dictature des algorithmes (tạm dịch là Tính độc tài của các thuật toán), do Tallandier xuất bản năm 2024. 

 

...more
View all episodesView all episodes
Download on the App Store

Tạp chí đặc biệtBy RFI Tiếng Việt


More shows like Tạp chí đặc biệt

View all
Thời sự quốc tế - VOA by VOA

Thời sự quốc tế - VOA

37 Listeners

Thế giới quanh ta - VOA by VOA

Thế giới quanh ta - VOA

4 Listeners

Thời sự Việt Nam - VOA by VOA

Thời sự Việt Nam - VOA

6 Listeners

Tri Kỷ Cảm Xúc by Web5ngay

Tri Kỷ Cảm Xúc

221 Listeners

 by RFI Tiếng Việt

13 Listeners

The Quoc Khanh Show by VIETSUCCESS

The Quoc Khanh Show

21 Listeners

Tạp chí âm nhạc by RFI Tiếng Việt

Tạp chí âm nhạc

2 Listeners

Tạp chí văn hóa by RFI Tiếng Việt

Tạp chí văn hóa

0 Listeners

Tạp chí khoa học by RFI Tiếng Việt

Tạp chí khoa học

0 Listeners

Tạp chí tiêu điểm by RFI Tiếng Việt

Tạp chí tiêu điểm

0 Listeners

Spiderum Official by Spiderum

Spiderum Official

23 Listeners

Chương trình 60' by RFI Tiếng Việt

Chương trình 60'

8 Listeners

Truyền hình vệ tinh VOA Express - VOA by VOA

Truyền hình vệ tinh VOA Express - VOA

6 Listeners

Tạp chí kinh tế by RFI Tiếng Việt

Tạp chí kinh tế

0 Listeners

Tạp chí thể thao by RFI Tiếng Việt

Tạp chí thể thao

0 Listeners

Tạp chí Việt Nam by RFI Tiếng Việt

Tạp chí Việt Nam

0 Listeners

Tạp chí xã hội by RFI Tiếng Việt

Tạp chí xã hội

0 Listeners

5 Phút Chuyện Thị Trường by 5 Phút Chuyện Thị Trường cùng Vũ Kim Hạnh

5 Phút Chuyện Thị Trường

0 Listeners