Nếu ngày nào đó của năm 2022, bạn đang ngồi trong chiếc xe tự lái trên con đường quen thuộc như mọi ngày thì chiếc xe đột nhiên lao điên cuồng, phóng qua các biển báo dừng xe thì thảm hoạ sẽ kinh khủng cỡ nào nhỉ.
Với bạn biển báo không có gì khác mọi ngày thế nhưng đối với chiếc xe biển báo này hoàn toàn khác bởi tấm giấy dán nhỏ đã được gắn lên trên biển hiệu cách đó ít phút. Mẩu giấy đủ nhỏ để mắt thường không nhìn thấy, nhưng đủ lớn để đánh lừa công nghệ nhận dạng.
Thực tế cho thấy AI được áp dụng ngày càng nhiều trong đời sống thì cũng có thêm nhiều nghiên cứu chỉ ra rằng AI dễ dàng bị đánh lừa bằng những cách đơn giản nhất như mẩu giấy nói trên.
“Mối lo ngại này ngày càng xuất hiện nhiều hơn trong cộng đồng trí thông minh nhân tạo và máy tính học, nhất là khi những thuật toán này đang được sử dụng ngày một nhiều hơn,” Daniel Lowd, phó giáo sư về khoa học máy tính và thông tin tại Đại học Oregon, nói với trang BBC
“Nếu các thư rác vượt qua được tường lửa hoặc một vài email bị chặn, hậu quả không phải là quá lớn. Thế nhưng nếu bạn phải dựa vào hệ thống nhận biết trong xe tự động lái để biết mình đang đi về đâu và tránh tai nạn, thì lại to chuyện hơn rất nhiều.”
Việc máy tính bị hỏng hóc hoặc bị xâm nhập có thể tác động rất lớn đến cách mà những thuật toán máy tính học ‘nhìn nhận’ thế giới. Khi đó, đối với nó, một con gấu trúc giống như một con vượn còn xe chở học sinh giống như một con đà điểu.
Trong một thử nghiệm, các nhà nghiên cứu từ Pháp và Switzerland đã chỉ ra rằng những sự phá rối như vậy có thể làm cho máy tính lẫn lộn về mặt nhận biết.
Các thuật toán máy học cũng nhận biết thế giới thông qua một quy trình tương tự. Các nhà khoa học nạp vào máy tính hàng trăm hoặc hàng nghìn ví dụ được phân loại cụ thể về những gì họ muốn máy tính nhận biết. Máy tính sau đó lướt qua các dữ liệu được nạp và trong lúc nó phân loại đâu là con số, đâu là không - nó bắt đầu ghi nhớ những đặc điểm của đáp án đúng. Sau đó, nó bắt đầu có khả năng nhìn vào một bức hình và khẳng định rằng ‘đây là một số 5’ với độ chính xác cao.
Bằng cách này, cả trẻ em lẫn máy tính có thể học cách nhận biết một số lượng lớn các vật thể, từ số cho tới thú nuôi cho tới khuôn mặt con người.
Thế nhưng, không giống như một đứa trẻ, máy tính không chú ý tới những chi tiết nhỏ như cái tai đầy lông của một con mèo hoặc những góc cạnh của số 4. Nó không nhìn vào toàn bức tranh.
Thay vào đó, nó nhìn vào từng ảnh điểm của các bức tranh và tìm cách phân biệt từng vật thể một cách nhanh nhất. Nếu phần lớn số 1 có cách ảnh điểm màu đen ở một số vùng và một số ảnh điểm màu trắng ở các vùng khác, máy tính sẽ đưa ra quyết định chỉ sau khi đã kiểm tra một số ít những ảnh điểm này.
Hãy thử nhìn lại câu chuyện biển báo dừng lại. Chỉ cần điều chỉnh các ảnh điểm trên hình kí hiệu, máy tính sẽ tưởng rằng tấm biển này là một thứ khác.
Một nghiên cứu tương tự từ Phòng Thí Nghiệm Trí Thông minh Nhân tạo Phát triển tại Đại học Wyoming và Đại học Cornell đã tạo ra một loạt các ảo ảnh cho trí thông minh nhân tạo.
Những hình ảnh trừu tưởng này rất khó hiểu đối với con người, thế nhưng chúng ngay lập tức được máy tính nhận biết là những con rắn hay các khẩu súng trường. Điều này cho thấy cách mà trí thông minh nhân tạo có thể nhìn vào một cái gì đó và phán đoán ra một thứ khác xa thực tế.
Đây là điểm yếu chung của tất cả các thuật toán máy học. “Tất cả các thuật toán đều có một điểm yếu,” Yevgeniy Vorobeychik, phó giáo sư về khoa học máy tính tại Đại học Vanderbilt, nói.
“Chúng ta sống trong một thế giới phức tạp, nhiều khía cạnh, và các thuật toán chỉ tập trung vào một phần rất nhỏ của thế giới đó.”
Voyobeychik ‘rất tự tin’ rằng nếu những điểm yếu này tồn tại, một ai đó sẽ tìm cách lợi dụng chúng. Điều này đã bắt đầu xảy ra.
Ví dụ như các thuật toán nhằm sàng lọc các email không rõ nguồn gốc. Những kẻ xấu có thể vượt qua tường lửa bằng cách chỉnh sửa cách viết của một số từ, ví dụ như Vi@gra thay vì Viagra hoặc tìm cách tung hoả mù để che giấu các từ thường xuyên xuất hiện trong thư rác, ví dụ như ‘nhận giải’, ‘mobile’ hoặc ‘thắng giải’.
Điều gì sẽ giúp những kẻ lừa đảo này thành công? Trường hợp chiếc xe tự lái bị đánh lừa trước biển báo dừng lại là một trong những viễn cảnh phổ biến mà các chuyên gia trong ngành đã nghĩ đến. Những dữ liệu gây nhiễu có thể giúp các trang web khiêu dâm lừa được tường lửa. Những kẻ lừa đảo khác có thể tìm cách nâng giá trị của một tờ cheque hoặc chỉnh sửa mã của các phần mềm độc hại nhằm giúp chúng vượt qua hệ thống an ninh máy tính.
Trên lý thuyết, những kẻ xâm nhập chỉ có thể tạo dữ liệu gây nhiễu nếu họ có trong tay thuật toán của chiếc máy tính mà họ muốn qua mặt. Tuy nhiên trên thực tế họ chỉ cần tấn công bằng một số lượng lớn các phiên bản khác nhau của email hoặc hình ảnh cho đến khi một tập tin nào đó vượt qua được tường lửa.
“Các hệ thống dùng thuật toán máy học đã bị lợi dụng kể từ khi chúng ra đời,” Patrick McDaniel, giáo sư khoa học máy tính tại Đại học Bang Pennsylvania, nói.
“Chúng ta không biết là những mánh khoé này có đang được sử dụng hay không”.
Thế nhưng phương pháp tạo dữ liệu gây nhiễu không chỉ có lợi cho những kẻ xấu. Chúng có thể được sử dụng để giúp đỡ những người muốn tránh bị theo dõi.
“Nếu bạn là một nhà hoạt động chính trị tại một quốc gia độc tài và bạn muốn tiến hành các hoạt động của mình mà không bị theo dõi, việc tránh được các công nghệ theo dõi tự động sẽ rất hữu ích,” Lowd nói.
Tháng 10 năm ngoái , các nhà nghiên cứu tại Đại học Carnegie Mellon đã chế tạo một cặp kính có khả năng đánh lừa hệ thống nhận dạng mặt - khiến cho máy tính tưởng nhầm nữ diễn viên Reese Witherspoon là Russel Crowe. Nghe thì có vẻ buồn cười, nhưng những công nghệ như vậy có thể sẽ trở nên rất hữu ích cho những ai muốn né tránh sự theo dõi của thế lực cầm quyền.
Vậy làm sao để có một thuật toán không dễ bị lừa? “Cách duy nhất là có một thuật toán luôn luôn đúng,” Lowd nói. Ngay cả khi chúng ta có thể tạo ra trí thông minh nhân tạo có khả năng đánh bại con người, thế giới này vẫn luôn tồn tại những trường hợp không có đáp án rõ ràng.
Các thuật toán máy học thường được đánh giá bởi độ chính xác. Một chương trình có khả năng nhận biết đúng 99% rõ ràng là tốt hơn chương trình chỉ đánh giá đúng 60%. Tuy nhiên các chuyên gia giờ đây cho rằng các thuật toán cần được đánh giá dựa trên khả năng kháng cự các vụ tấn công.
Một giải pháp khác đó là giả lập các vụ tấn công và chỉ cho thuật toán máy tính học thấy. Điều này có thể giúp hệ thống trở nên ngày càng vững vàng hơn. Tất nhiên là các vụ tấn công được giả lập này cũng cần giống với các vụ tấn công có thể xảy ra trong thế giới thật.
McDianiel cho rằng chúng ta nên cho phép con người can thiệp vào thuật toán trong những trường hợp cần thiết. Một số ‘trợ lý thông minh’ như M của Facebook, có con người đứng đằng sau để kiểm tra và tinh chỉnh các câu trả lời, trong khi một số chuyên gia khác cho rằng sự kiểm tra của con người cũng đóng vai trò quan trọng trong các ứng dụng nhạy cảm khác, ví dụ như quyết định của toà án.
“Các hệ thống máy học là công cụ để lập luận. Chúng ta cần rất tỉnh táo trước những gì chúng ta cho chúng biết, cũng như những gì chúng cho ta biết”, ông nói. “Chúng ta không nên xem chúng là những nhà tiên tri hoàn hảo”