AI có huỷ diệt nhân loại?

Thứ Bảy, 17/06/2023, 22:05

AI (trí tuệ nhân tạo) đang đi vào cuộc sống của mỗi quốc gia, mỗi con người và biến những điều không tưởng thành hiện thực một cách nhanh chóng, giúp giải phóng sức lao động của con người. Tuy nhiên, sự thâm nhập như vũ bão ấy của AI đang gây ra những lo ngại rằng sự phát triển của AI có thể đánh dấu sự kết thúc của loài người nếu những kẻ xấu nhúng tay vào; giảm thiểu rủi ro của AI nên là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân. Một cuộc đua kiểm soát AI đang thực sự bắt đầu.

Giấc mơ hay ác mộng?

Trong cuộc nói chuyện gần đây trên tờ The New York Times, Tiến sĩ Geoffrey Hinton -  người đã dành cả sự nghiệp của mình để nghiên cứu việc sử dụng công nghệ AI và nhận được Giải thưởng Turing vào năm 2018 thú nhận, “tiến bộ đạt được trong công nghệ AI trong 5 năm qua là đáng sợ”. Còn triệu phú đầu tư nổi tiếng Scott Galloway – người đã sáng lập 9 công ty lớn đồng thời là Giáo sư tại Khoa Kinh doanh Stern thuộc Đại học New York, từng lọt vào danh sách 50 Giáo sư kinh doanh xuất sắc thế giới của trang thông tin Poets & Quants năm 2012, khẳng định, AI đang khiến thế hệ trẻ cô đơn và chán nản hơn.

AI có huỷ diệt nhân loại? -0
Tỷ phú Elon Musk đã kêu gọi các nhà khoa học tạm dừng phát triển AI để đảm bảo nó không đe dọa loài người.  Ảnh: Reuters.

Báo cáo từ Diễn đàn Kinh tế thế giới trong tháng 5/2023 đã cảnh báo, 83 triệu việc làm sẽ biến mất vào năm 2027 do sự phát triển của công nghệ AI; đồng thời 69 triệu việc làm mới sẽ được tạo ra nhờ sự xuất hiện của công nghệ AI. Còn Ngân hàng đầu tư Goldman Sachs cho rằng, AI là mối đe dọa đối với khoảng 300 triệu việc làm toàn thời gian trên toàn cầu, bao gồm 2/3 tổng số việc làm ở Mỹ và châu Âu…

Một tuyên bố được công bố trên trang web của Trung tâm An toàn AI - một tổ chức phi lợi nhuận có trụ sở tại San Francisco (Mỹ) cho biết, AI trong chiến tranh có thể “cực kỳ nguy hại'” vì nó được sử dụng để phát triển vũ khí hóa học mới và tăng cường khả năng chiến đấu trên không. Lord Rees, nhà thiên văn học Hoàng gia của Vương quốc Anh nói: “Những thứ này có thể gặp trục trặc do “lỗi ẩn” và sự cố có thể khó sửa chữa. Những sự cố quy mô lớn của lưới điện, Internet… có thể dẫn đến sự đổ vỡ xã hội thảm khốc”. Chưa hết, thông tin sai lệch do AI tạo ra có thể được sử dụng để gây ảnh hưởng đến các cuộc bầu cử thông qua “các chiến dịch thông tin sai lệch tùy chỉnh trên quy mô lớn” và việc sử dụng rộng rãi AI có thể gây nguy hiểm, khiến xã hội trở nên “hoàn toàn phụ thuộc vào máy móc, tương tự như kịch bản được miêu tả trong phim WALL-E”.

Đề xuất từ đại gia công nghệ và nỗi lo của các chính phủ

Tháng 3/2023, tỷ phú Elon Musk khi trả lời phỏng vấn hãng CNBC, đã kêu gọi các nhà khoa học tạm dừng phát triển AI để đảm bảo nó không đe dọa loài người. Gọi AI là “con dao hai lưỡi”, Elon Musk cho rằng: “AI có khả năng làm cho cuộc sống tốt đẹp hơn và chúng ta sẽ có một kỷ nguyên sung túc. Nhưng nó cũng có khả năng phạm sai lầm và hủy diệt loài người. Khả năng này là rất nhỏ, nhưng không phải là con số 0. Vì vậy, tôi nghĩ chúng ta nên thực hiện mọi hành động có thể nghĩ ra, để giảm thiểu khả năng AI phạm sai lầm”. Tháng 5, Giám đốc OpenAI Sam Altman cũng đã kêu gọi Quốc hội Mỹ bắt đầu điều chỉnh công nghệ AI để ngăn chặn "tác hại đáng kể cho thế giới". Đồng tình với quan điểm này, 80 nhà khoa học về AI và gần 300 “nhân vật đáng chú ý khác” đã cùng ký vào một tuyên bố khẳng định các quốc gia phải đặt nhiệm vụ giảm thiểu nguy cơ rủi ro từ AI lên hàng đầu.

Ngày 1/6, tại Washington, Chủ tịch Microsoft Brad Smith tổ chức một sự kiện lớn tại Planet Word với một nhóm các nhà lập pháp Mỹ để đưa ra đề xuất về cách chính quyền Washington nên điều chỉnh sự phát triển quá nhanh của AI. Kế hoạch 5 điểm mới này của Microsoft tập trung vào an ninh mạng cho cơ sở hạ tầng quan trọng và chế độ cấp phép cho các mô hình AI. Cụ thể, Microsoft muốn Nhà Trắng thúc đẩy việc áp dụng rộng rãi Khung quản lý rủi ro AI tự nguyện do Viện Tiêu chuẩn và Công nghệ Quốc gia phát hành vào đầu năm nay. Thêm vào đó, Microsoft cho rằng các nhà lập pháp cần thiết lập “hệ thống phanh an toàn” đối với các công cụ AI kiểm soát hoạt động của các cơ sở hạ tầng quan trọng như: lưới điện và hệ thống nước…

Đáng chú ý, Giám đốc điều hành của Microsoft không phải là ông lớn công nghệ duy nhất đang tham gia những nỗ lực định hình các quy định về AI. Giám đốc điều hành Google Sundar Pichai đã có mặt ở châu Âu hôm 31/5, tức 1 ngày sau khi đăng bài xã luận, nhấn mạnh việc xây dựng AI một cách có trách nhiệm là quan trọng nhất. Mục đích chuyến công tác châu Âu của ông Sundar Pichai là để tìm kiếm một hiệp ước AI tự nguyện với Ủy ban châu Âu khi khối này hoàn thiện đạo luật AI của mình. Trước đó, Google cũng phát hành sách trắng, trình bày chi tiết chương trình nghị sự về chính sách AI của hãng và nói rằng họ được khuyến khích khi thấy các quốc gia đang bận rộn ban hành những quy định mới.

AI có huỷ diệt nhân loại? -0
Các đại gia công nghệ và các chính phủ đang chạy đua trong hành trình tìm kiếm giải pháp ngăn chặn “sự tiến hóa của robot” vượt khỏi tầm kiểm soát .

Giám đốc điều hành OpenAI Sam Altman, sau cuộc điều trần trước Ủy ban Tư pháp Thượng viện Mỹ về giám sát AI cũng đã tới châu Âu, tham gia một loạt cuộc thảo luận về quy định kiểm soát AI tại lục địa già. Khi nói chuyện với một nhóm nghị sĩ châu Âu, ông Sam Altman thừa nhận rằng, nỗi sợ lớn nhất của ông khi OpenAI phát triển AI là nguy cơ phát sinh mặt tiêu cực tiềm ẩn nếu không được quản lý đúng cách: "Nỗi sợ hãi tồi tệ nhất của tôi là chúng tôi gây ra hậu quả nghiêm trọng cho thế giới. Vì thế, việc kiểm soát lộ trình phát triển của nó là cần thiết”.

Một trong những đề xuất của Giám đốc điều hành OpenAI tại phiên điều trần là Chính phủ Mỹ cần thiết lập một cơ quan mới có trách nhiệm cấp phép cho các mô hình AI lớn, đồng thời trao quyền cho cơ quan này thu hồi giấy phép của những công ty không tuân thủ các tiêu chuẩn của chính phủ. Tờ Foxbusiness thì thông tin, Mỹ đã đưa ra kế hoạch trị giá 140 triệu USD để thành lập 7 viện nghiên cứu AI mới, yêu cầu các cơ quan chính phủ soạn thảo hướng dẫn sử dụng AI an toàn.

Ngay trong nội bộ nước Mỹ đã hình thành cuộc đua kiểm soát AI. Văn phòng Chính sách Khoa học và Công nghệ của Nhà Trắng đang hoàn thiện một “Chiến lược AI quốc gia” mới. Theo kế hoạch, chính quyền Washington sẽ lấy ý kiến người dân, lắng nghe những chia sẻ của họ về các trải nghiệm sử dụng các công nghệ tự động, qua đó theo dõi và điều chỉnh phù hợp việc kiểm soát công nghệ AI. Trong tháng 6, Tổng thống Joe Biden sẽ công bố các bước đánh giá công nghệ mới, bao gồm một lộ trình cập nhật các khoản đầu tư liên bang vào lĩnh vực nghiên cứu AI, một bản khảo sát về rủi ro do AI gây ra cũng như một báo cáo mới của Bộ Giáo dục Mỹ về ảnh hưởng của AI trong lĩnh vực học tập, nghiên cứu và giảng dạy. Trong khi đó, lãnh đạo phe đa số Thượng viện, ông Charles E.Schumer cũng bắt đầu quá trình tạo ra các quy tắc AI mới tại Thượng viện.

Ngoài ra, chính phủ Mỹ cũng chú trọng cả chính sách hợp tác quốc tế về AI với việc tham gia các cuộc đối thoại với những đồng minh ở châu Âu để tìm kiếm sự đồng thuận về một bộ quy tắc ứng xử chung cho AI. Điểm lợi của việc này là châu Âu đang là khu vực tiên phong trong việc thiết lập quy định kiểm soát các công nghệ mới. Hồi giữa tháng 5 vừa qua, Ủy ban Thị trường nội khối và Ủy ban về quyền tự do dân sự thuộc Liên minh châu Âu (EU) đã thông qua hơn 3.000 điều chỉnh trong đạo luật AI của khối. Những thay đổi mới trong dự luật yêu cầu các đơn vị phát triển AI tiến hành việc đánh giá mức độ an toàn, có giải pháp quản lý dữ liệu và giảm thiểu rủi ro trước khi đưa sản phẩm ra thị trường.

Các công cụ AI cũng phải gửi thông báo lưu ý người dùng rằng sản phẩm của các công cụ này là do máy móc tạo ra, không phải con người. Việc sử dụng công nghệ xác thực sinh trắc học, đặc biệt là nhận diện khuôn mặt, sẽ bị cấm ở nơi công cộng, trừ trường hợp chống khủng bố. Bên cạnh đó, cảnh sát cũng bị cấm dùng AI để đánh giá khả năng phạm tội của một người dựa trên hồ sơ tiền án. Dự kiến, vào giữa tháng 6, Nghị viện châu Âu sẽ tiến hành biểu quyết thông qua dự thảo luật này. Nếu sớm được thông qua, đạo luật AI sẽ được ban hành vào cuối năm 2023 và có hiệu lực sớm nhất là vào cuối năm 2025.

Cùng chung lo ngại về kiểm soát AI, hồi tháng 4, Trung Quốc cũng đã công bố dự thảo biện pháp quản lý các dịch vụ AI. Cơ quan quản lý không gian mạng Trung Quốc (CAC) khẳng định, Bắc Kinh ủng hộ đổi mới và ứng dụng AI, đồng thời khuyến khích sử dụng phần mềm, công cụ và tài nguyên dữ liệu an toàn và đáng tin cậy. Nhưng, nội dung do AI tạo ra phải phù hợp với các giá trị xã hội chủ nghĩa cốt lõi của đất nước; các nhà cung cấp sẽ chịu trách nhiệm về tính hợp pháp của dữ liệu được sử dụng để đào tạo các sản phẩm AI và sẽ bị phạt tiền, đình chỉ dịch vụ hoặc thậm chí đối mặt với các cuộc điều tra hình sự nếu không tuân thủ các quy tắc…

Hiện công nghệ AI cũng đang đối mặt sự cứng rắn của nhiều chính phủ khác như Australia, Canada, Nhật Bản... Hôm 1/6, Australia cho biết đã lên kế hoạch cho những điều chỉnh về công nghệ AI, bao gồm lệnh cấm tiềm năng đối với deepfakes và nội dung giả trông giống thực, trong bối cảnh lo ngại công nghệ này có thể bị lạm dụng bởi những kẻ xấu. Nhật Bản, với tư cách là Chủ tịch luân phiên của G7 đang nỗ lực thể hiện rõ vai trò lãnh đạo trong việc thúc đẩy nhận thức chung và thiết lập các quy tắc về sử dụng trí tuệ nhân tạo.

Sông Thương
.
.