|
Các đại biểu tham dự Hội nghị Cấp cao An toàn AI toàn cầu vừa được tổ chức ở Vương quốc Anh hồi đầu tháng 11 này. Ảnh minh họa: AFP/TTXVN |
Trong một văn kiện dài 20 trang vừa được công bố, 18 quốc gia đã nhất trí rằng, các công ty thiết kế và sử dụng AI cần phát triển và triển khai công nghệ này theo cách để giữ cho khách hàng và công chúng nói chung được an toàn khỏi việc sử dụng sai mục đích.
Thỏa thuận này không mang tính ràng buộc, và chủ yếu đưa ra các khuyến nghị chung, chẳng hạn như giám sát hành vi lạm dụng từ các hệ thống AI, bảo vệ dữ liệu… Tuy nhiên, Giám đốc Cơ quan An ninh Cơ sở Hạ tầng và An ninh mạng Mỹ (CISA), bà Jen Easterly cho biết, điều quan trọng là rất nhiều quốc gia ghi tên mình vào ý tưởng rằng các hệ thống AI cần đặt sự an toàn lên hàng đầu.
Trong một cuộc phỏng vấn với Hãng Thông tấn Reuters, bà Jen Easterly nhận định: “Đây là lần đầu tiên chúng tôi chứng kiến sự khẳng định rằng, những khả năng này không chỉ liên quan đến các tính năng thú vị và tốc độ ra mắt thị trường, hay cách chúng ta có thể cạnh tranh để giảm chi phí; mà các hướng dẫn này mang lại một thỏa thuận cho thấy, điều quan trọng nhất cần được thực hiện ở giai đoạn thiết kế chính là yếu tố an ninh”.
Thỏa thuận này là sáng kiến mới nhất trong số một loạt sáng kiến của các chính phủ trên khắp thế giới, nhằm định hình sự phát triển của AI, lĩnh vực có sức ảnh hưởng ngày càng được cảm nhận rõ ràng trong ngành công nghiệp và xã hội nói chung.
Bên cạnh Mỹ và Vương quốc Anh, các quốc gia đã ký vào những hướng dẫn mới bao gồm: Đức, Italy, Cộng hòa Séc, Estonia, Ba Lan, Australia, Chile, Israel, Nigeria và Singapore…
Thỏa thuận này giải quyết các câu hỏi về cách giữ cho công nghệ AI không bị tin tặc tấn công, và bao gồm những khuyến nghị như chỉ phát hành các mô hình sau khi kiểm tra bảo mật thích hợp. Dù vậy, thỏa thuận không giải quyết các câu hỏi hóc búa xung quanh việc sử dụng AI phù hợp, hoặc cách thu thập dữ liệu cung cấp cho những mô hình này.
Theo Reuters, sự trỗi dậy của AI đã kéo theo nhiều mối quan ngại, bao gồm cả nỗi lo sợ rằng công nghệ này có thể được sử dụng để tăng cường gian lận…, hoặc dẫn đến tình trạng mất việc làm nghiêm trọng, cùng những tác hại khác.
Châu Âu đi trước Mỹ về các quy định liên quan đến AI, với các nhà lập pháp đã soạn thảo các quy tắc về AI. Gần đây, Pháp, Đức và Italy cũng đã đạt được một thỏa thuận về cách quản lý công nghệ này, nhằm hỗ trợ "sự tự điều chỉnh bắt buộc thông qua các quy tắc ứng xử" cho những mô hình nền tảng của AI.