Khi trí tuệ nhân tạo rơi vào tay... khủng bố

Thứ Bảy, 13/04/2019, 09:06
Các báo cáo mới công bố của nhóm các chuyên gia nghiên cứu trí tuệ nhân tạo (AI) hàng đầu thế giới đã hé lộ một viễn cảnh không mấy tươi sáng cho công nghệ siêu việt này.

Theo đó, trong tương lai, các hoạt động tội phạm có thể lợi dụng trí tuệ nhân tạo để thao túng, điều khiển các thiết bị bay không người lái, phát tán các đoạn phim giả mạo, tấn công hệ thống an ninh trên diện rộng cũng như thực hiện nhiều hình thức khủng bố khác tới nhiều quốc gia.

Gia tăng nguy cơ khủng bố

Sự phát triển nhanh chóng của trí tuệ nhân tạo dần vượt ra khỏi tầm kiểm soát, khiến công nghệ này có thể trở thành tay sai đắc lực cho những đối tượng, tổ chức có dã tâm bạo loạn. 

Các chuyên gia nhận định, trí tuệ nhân tạo sẽ thay đổi hình thức gây nguy hiểm cho công dân, tổ chức và nhà nước - ở đó tội phạm “huấn luyện” máy móc có kỹ năng giống người để tấn công mạng hoặc do thám, thu thập thông tin và nhận dạng mục tiêu nhằm phục vụ mục đích cá nhân hay thao túng chính trị.

Có rất nhiều nguy cơ đang hiển hiện liên quan đến AI, đặc biệt là âm mưu sử dụng các kỹ thuật mới, bao gồm thiết bị không người lái, các công cụ tấn công mạng tự động để can thiệp bầu cử, giả mạo giọng nói mục tiêu, sử dụng phần mềm nhận diện khuôn mặt, hay tạo ra các nội dung đánh lừa người xem với tốc độ lan truyền chóng mặt trên các mạng xã hội.

Trong vòng 5 năm tới, viễn cảnh những chiếc xe không người lái lao vào đám đông người đi bộ, hay các tòa nhà chính phủ bị tấn công bằng máy bay không người lái có thể sẽ sớm trở thành hiện thực.

Sự tiến hóa của trí tuệ nhân tạo cho phép robot được lập trình sẵn, từ đó có thể tạo ra đội quân “robot sát thủ” tự động.

Không những vậy, với việc trí tuệ nhân tạo đang “tiến hóa”, khả năng các cỗ máy có thể lựa chọn và khai hỏa một cách độc lập đang hiện hữu hơn bao giờ hết. Điều này được thấy ở các nghiên cứu và thử nghiệm công nghệ cho phép lập trình robot bắn chết người, hoặc xe tăng khai hỏa trúng mục tiêu mà không cần tới sự can thiệp của con người.

Liên Hiệp Quốc từng bày tỏ lo ngại về việc công nghệ trí tuệ nhân tạo cho phép robot được lập trình sẵn, có thể bắn hay tấn công vào mục tiêu mà không cần đến sự tham gia của con người. Đội quân “robot sát thủ” tự động này có thể tiến hành các cuộc tấn công trên diện rộng, gây thương vong rất lớn.

Chuyện gì sẽ xảy ra nếu những công nghệ kiểu này lọt vào tay khủng bố? Giới chuyên gia cảnh báo nguy cơ trí tuệ nhân tạo bị các đối tượng tấn công theo kiểu “con sói đơn độc” thao túng. 

Với chúng, AI chính là kẻ thay đổi cuộc chơi vì công nghệ này giúp các cuộc bạo động và khủng bố trở nên chính xác hơn, ít tốn thời gian. Bên cạnh đó, chi phí tiến hành các cuộc tấn công sử dụng trí tuệ nhân tạo thấp hơn các vụ sử dụng con người. 

Quan trọng hơn, tội phạm muốn thông qua AI nhằm ẩn giấu danh tính nhưng vẫn tạo ra khả năng sát thương nghiêm trọng nhất. Điều này có nghĩa, AI giúp những kẻ cực đoan cướp đoạt sinh mạng của mục tiêu trong khi chúng thậm chí không cần có mặt tại hiện trường.

Với sức mạnh tự tổng hợp các hình ảnh, văn bản và âm thanh để bắt chước và đóng giả người khác, AI đủ sức gây ảnh hưởng và điều khiển con người. Thông thường, sức mạnh quân sự không ngừng được tăng cường cùng với sự phát triển của khoa học công nghệ.

Vì vậy, Liên Hiệp Quốc cho rằng, nguy cơ quân khủng bố chạy đua vũ trang và biến trí tuệ nhân tạo thành vũ khí hủy diệt hàng loạt, hay những cỗ máy giết người trong tương lai, là không thể tránh khỏi. Về lâu dài, việc sử dụng AI với mục đích xấu đặt ra mối đe dọa không chỉ đối với không gian mạng, mà còn kéo theo các hậu quả nghiêm trọng khác liên quan đến đời sống - xã hội và chính trị.

AI chính là kẻ thay đổi cuộc chơi khủng bố của những kẻ cực đoan tấn công theo kiểu “con sói đơn độc”.

Mối đe dọa hiện hữu

Công nghệ trí tuệ nhân tạo bao gồm việc sử dụng máy tính để thực hiện các nhiệm vụ thường đòi hỏi trí tuệ con người, như đưa ra các quyết định hay nhận diện văn bản, lời nói và hình ảnh. Mặc dù mang lại nhiều lợi ích song sự phát triển của AI cũng có những rủi ro tiềm tàng.

Tỷ phú Elon Musk, CEO của Tesla và SpaceX, từng cảnh báo, công nghệ này có thể sẽ đe dọa tới sự tồn vong của con người nếu chúng phát triển quá mạnh và vượt ngoài khuôn phép.

Trong khi đó, nhà vật lý Stephen Hawking cho rằng loài người đang sống trong một thế giới “mạo hiểm” trước sự lớn mạnh của AI và lạm dụng AI vào những mục đích sai trái như khủng bố. Ông kêu gọi các chính phủ, tổ chức và cá nhân trên toàn cầu phải chủ động giải quyết vấn đề AI bởi nguy cơ là có thật.

Ở chiều ngược lại, phe ủng hộ tất nhiên vẫn có lập luận riêng, khi họ cho rằng sử dụng AI tạo nên robot ngoài chiến trường sẽ giúp giảm thương vong không mong muốn vì chúng ít bị lỗi, mệt mỏi hay chịu tác động cảm xúc như con người. 

Tương tự, CEO Facebook Mark Zuckerberg khá lạc quan khi cho rằng, con người có thể làm bạn với trí tuệ nhân tạo và biến AI trở thành một công cụ hữu ích. Tuy nhiên, AI của Facebook đang cho thấy điều trái ngược.

Được phát triển nhằm mục đích chống “fake news”, với tuyên bố không thể bị đánh lừa, nhưng tới nay, trí tuệ nhân tạo của Facebook vẫn chưa thể phân biệt tin tức giả mạo dưới dạng văn bản. Ngoài ra, AI của Facebook dường như đang tiếp tay cho tổ chức khủng bố Nhà nước Hồi giáo (IS) khi hỗ trợ quảng cáo và lan truyền tin giả tuyên truyền trên mạng.

Không thể phủ nhận mối liên hệ giữa AI và khủng bố, nhất là trong bối cảnh điểm cuối của quỹ đạo phát triển công nghệ này chắc chắn sẽ là vũ khí sử dụng trí tuệ nhân tạo, phổ biến như súng Kalashnikovs từng thống trị “làng” vũ khí thế giới.

Con người cần tìm cách kiểm soát trí tuệ nhân tạo, không cho chúng cơ hội phát triển quá mạnh và vượt ngoài khuôn phép.

Trong một lá thư ngỏ gửi tới các chính trị gia, các chuyên gia AI hàng đầu thế giới lập luận rằng, nếu bất cứ thế lực quân sự lớn nào đẩy mạnh phát triển vũ khí tự động, sản xuất hàng loạt những “robot sát thủ” thì một cuộc chạy đua vũ trang toàn cầu sẽ là tất yếu. 

Khi đó, không khó để các phần tử khủng bố có thể thao túng công nghệ AI và tự xây dựng những đội quân máy sát thủ phục vụ dã tâm làm chủ thế giới, tạo nên kết cục cuối cùng là ngày tận thế của toàn nhân loại.

Thời gian gần đây, các chuyên gia đã có nhiều cuộc họp nhằm đưa ra yêu cầu tuân thủ nghiêm ngặt các quy định về việc phát triển AI cũng như sử dụng robot chiến đấu hay thiết bị liên quan đến AI.

Bên cạnh đó, quy trình xây dựng khung pháp lý đã được khởi động nhằm kiểm soát AI và robot trên quy mô quốc tế, nhằm đảm bảo rằng chúng sẽ không bị lợi dụng trái phép như vũ khí diệt chủng trong chiến tranh. Tuy nhiên, những kẻ khủng bố “không có động lực” để tuân thủ các quy tắc, công ước hay khung pháp lý kiểu này. 

Chưa hết, hiện nay nhiều quốc gia tiên tiến đang nắm giữ công nghệ sản xuất robot. Nếu không có sự kiểm soát chặt chẽ và đảm bảo các nguyên tắc sẽ làm tăng thêm sự bất ổn trên toàn cầu.

Trong một động thái mới nhất, Đại học Montreal (Canada) vừa kết thúc dự án về quy tắc kiểm soát trí tuệ nhân tạo, tuyên bố AI cần tôn trọng quyền cá nhân con người và phải chịu sự kiểm soát của con người.

Bản tuyên bố Montreal kêu gọi các chính phủ cùng các chuyên gia kỹ thuật và các nhà hoạch định chính sách cần có cách tiếp cận toàn diện hơn, chẳng hạn thiết kế các phần mềm và phần cứng khó bị tin tặc tấn công, hay nghiên cứu đưa AI vào luật quốc gia và các quy chuẩn quốc tế. 

Tuyên bố cũng đặt câu hỏi liệu có nên giới hạn công bố những bước phát triển mới trong lĩnh vực AI khi vẫn chưa có những biện pháp ứng phó đối với các mối đe dọa tiềm tàng mà công nghệ này tạo ra.

Dù thế nào, thông điệp được đưa ra cũng rất rõ ràng: loài người cần học cách kết nối chủ động và thận trọng hơn trong việc phát triển AI, đặc biệt nên quan tâm tới những tác động khôn lường của AI nếu bị lạm dụng trái phép. 

Với công nghệ này, những kẻ khủng bố sẽ gây thêm bất ổn an ninh khu vực, thậm chí là toàn cầu. Con người khi ấy không thể tiếp tục kiểm soát được trí tuệ nhân tạo, mà đành giao quyền quyết định cuộc sống của mình cho máy móc.

Nam Hồng - Trần Quân
.
.