Anh thúc đẩy công cụ pháp lý để đối phó rủi ro từ trí tuệ nhân tạo
Các nghị sĩ tại Quốc hội Anh đang thúc đẩy đề xuất xây dựng một cơ chế “tắt khẩn cấp” đối với trí tuệ nhân tạo (AI), trong bối cảnh ngày càng xuất hiện nhiều lo ngại về nguy cơ các hệ thống AI tiên tiến vượt khỏi tầm kiểm soát và đe dọa an ninh quốc gia.

Anh thúc đẩy công cụ pháp lý để đối phó rủi ro từ trí tuệ nhân tạo. Ảnh: Wion.
Theo đề xuất mới được đưa vào sửa đổi Dự luật An ninh mạng và Khả năng phục hồi của Anh, Bộ trưởng Công nghệ nước này sẽ được trao quyền ra lệnh đình chỉ hoặc vô hiệu hóa các hệ thống AI trong những tình huống đặc biệt nghiêm trọng. Cơ chế này được ví như một “công tắc khẩn cấp”, cho phép chính phủ can thiệp nhanh nếu AI bị đánh giá có khả năng gây ra hậu quả nguy hiểm trên diện rộng.
Các nhà lập pháp cho biết quyền hạn trên chỉ được áp dụng trong những trường hợp cực đoan, bao gồm các mối đe dọa đối với an ninh quốc gia, cơ sở hạ tầng trọng yếu hoặc các tình huống mà AI có thể gây nguy hiểm lớn đến tính mạng con người và hoạt động xã hội.
Theo nội dung sửa đổi, các công ty phát triển và vận hành AI cũng sẽ phải thiết lập các kênh liên lạc an toàn với Bộ Khoa học, Đổi mới và Công nghệ Anh nhằm bảo đảm chính phủ có thể phối hợp và đưa ra phản ứng khẩn cấp trong thời gian ngắn nhất khi xảy ra sự cố.
Theo giới quan sát, động thái tại Anh phản ánh xu hướng gia tăng trên toàn cầu trong việc siết chặt quản lý trí tuệ nhân tạo, khi công nghệ này đang được tích hợp sâu vào nhiều lĩnh vực trọng yếu như tài chính, quốc phòng, y tế, năng lượng và hạ tầng số.
Được biết, ý tưởng về “công tắc khẩn cấp” đối với AI hiện cũng được thảo luận tại nhiều quốc gia khác. Tổng thống Mỹ Donald Trump gần đây cũng bày tỏ sự ủng hộ đối với các biện pháp cho phép chính phủ kiểm soát hoặc vô hiệu hóa các hệ thống AI trong những tình huống nguy cấp.

Ý tưởng về “công tắc ngắt khẩn cấp” đối với AI hiện cũng được thảo luận tại nhiều quốc gia, trong đó có Mỹ. Ảnh: Infinity.
Nhiều chuyên gia công nghệ cảnh báo rằng, khi AI ngày càng có khả năng tự động hóa và ra quyết định độc lập, nguy cơ phát sinh các hành vi ngoài dự đoán hoặc bị lợi dụng vào mục đích tấn công mạng, thao túng thông tin và phá hoại cơ sở hạ tầng sẽ gia tăng đáng kể. Chính vì vậy, câu hỏi “Làm thế nào để duy trì quyền kiểm soát cuối cùng đối với AI nếu công nghệ này xảy ra sự cố hoặc vượt ngoài khả năng kiểm soát của con người” đang rất cần giới chuyên gia và các nhà hoạch định chính sách đưa ra câu trả lời trong thời gian sớm nhất.
Ngọc Liên
Nguồn: Wion





Bình luận
Xin vui lòng gõ tiếng Việt có dấu