“Nếu AI được sử dụng để phạm tội, cần phải xác lập trách nhiệm giải trình”

“Nếu AI được sử dụng để phạm tội, cần phải xác lập trách nhiệm giải trình”

Đại diện Bộ Công an nêu rõ, cần hoàn thiện khuôn khổ pháp lý về trí tuệ nhân tạo càng sớm càng tốt và làm rõ trách nhiệm trong việc sử dụng trí tuệ nhân tạo để phạm tội.

Đề xuất này được Trung tá Nguyễn Anh Tuấn, Phó Giám đốc Trung tâm Dữ liệu Dân số Quốc gia, Bộ Công an đưa ra tại Hội nghị Thượng đỉnh An ninh 2024 ở Hà Nội sáng 30/5.

Ông Duẩn cho rằng trí tuệ nhân tạo là công nghệ quan trọng có thể mang lại đột phá cho phát triển kinh tế. Ông cho rằng trí tuệ nhân tạo tiềm ẩn nhiều rủi ro, tác động tiêu cực đến an ninh quốc gia, trật tự xã hội.

Các rủi ro được đề cập bao gồm xâm phạm quyền riêng tư, thông tin sai lệch, phân biệt đối xử… Ngoài ra, AI còn đặt ra những rủi ro và thách thức về an ninh mạng, thường thông qua việc sử dụng AI để lừa đảo.

“Trí tuệ nhân tạo có thể tạo ra nhiều ứng dụng có hình ảnh, tên giả của các ứng dụng, website Bộ Công an để người dân tải xuống, cài đặt và cung cấp các thông tin như số CCCD, mật khẩu đăng nhập”, ông Duẩn nêu một ví dụ. Ngoài ra, tin tặc đang sử dụng trí tuệ nhân tạo để thực hiện nhiều hình thức tấn công như tạo phần mềm độc hại, giả lập hệ thống và tự động hóa các cuộc tấn công, đại diện Bộ cho biết.





Ông Nguyễn Anh Tuấn phát biểu tại sự kiện.  Ảnh: Lưu Quý

Ông Nguyễn Anh Tuấn phát biểu tại sự kiện. hình ảnh: Lữ Quế

Mặc dù tiềm ẩn nhiều rủi ro nhưng các quy định về trí tuệ nhân tạo vẫn chưa được hoàn thiện. Dẫn số liệu thống kê từ Legalnodes, ông Duẩn cho biết tính đến thời điểm hiện tại, có khoảng 33 quốc gia đã xây dựng dự thảo luật về trí tuệ nhân tạo. Tuy nhiên, chưa có bộ tiêu chuẩn toàn diện và chưa có tiếng nói chung toàn cầu.

Trước thực trạng trên, đại diện Bộ Công nghiệp và Công nghệ thông tin đề xuất cần thiết lập hành lang pháp lý về trí tuệ nhân tạo càng sớm càng tốt để giữ vững vị thế dẫn đầu, đồng thời ban hành các văn bản quy định đạo đức của người sử dụng trí tuệ nhân tạo. nghiên cứu phát triển, sản xuất, ứng dụng và sử dụng trí tuệ nhân tạo. Ví dụ, sử dụng trí tuệ nhân tạo để bảo vệ quyền riêng tư, dữ liệu cá nhân và nhân quyền trong và ngoài nước.

Ông Duan nói: “Cần phải có văn bản quy định trách nhiệm pháp lý của các nhà cung cấp dịch vụ AI trong việc lạm dụng AI một cách hình sự”.

Ngoài ra, Phó giám đốc Trung tâm Dữ liệu Dân số Quốc gia cho rằng trí tuệ nhân tạo là do con người tạo ra, có “trí tuệ nhân tạo tốt” và “trí tuệ nhân tạo xấu” nên “cần phải sử dụng trí tuệ nhân tạo để chống lại nó. ” Rủi ro từ trí tuệ nhân tạo”.

Thứ trưởng Bộ Thông tin và Truyền thông Fan Delong bình luận tại sự kiện trí tuệ nhân tạo đang định hình lại hầu hết các ngành công nghiệp, trong đó có an ninh thông tin mạng. Trí tuệ nhân tạo đang được ứng dụng cho cả “tiền tuyến” tấn công mạng và phòng thủ hệ thống.





Thứ trưởng Văn Der Long phát biểu tại sự kiện.  Ảnh: Lưu Quý

Thứ trưởng Văn Der Long phát biểu tại sự kiện. hình ảnh: Lữ Quế

Ông Long dẫn khảo sát cho thấy khoảng 50% tổ chức trên toàn cầu sẽ đẩy mạnh ứng dụng trí tuệ nhân tạo vào các công cụ an toàn thông tin mạng, nhờ khả năng phân tích tập dữ liệu lớn với tốc độ cao và lọc lượng lớn dữ liệu để xác định các điểm bất thường. hành vi và phát hiện hoạt động độc hại mà công nghệ truyền thống không thể xử lý được.

Nhưng ngoài ra, tội phạm mạng cũng đang sử dụng trí tuệ nhân tạo để tạo ra phần mềm độc hại mới, các cuộc tấn công lừa đảo mới và sử dụng deepfake để tiến hành lừa đảo trực tuyến.

“Các cuộc tấn công mạng tiếp tục phát triển và ngày càng phức tạp. Đặc biệt với sự hỗ trợ của trí tuệ nhân tạo, những rủi ro mà chúng ta gặp phải sẽ tăng theo cấp số nhân”, Long Qiang nhấn mạnh. “Vì vậy, các cơ quan, tổ chức cần nâng cao năng lực bảo mật thông tin, tích cực triển khai các kế hoạch bảo đảm an toàn thông tin và liên tục duy trì chúng”.

Lữ Quế