leftcenterrightdel

ChatGPT có thể bị kẻ xấu lợi dụng để thực hiện hành vi lừa đảo. Ảnh: Reuters/Tuoitre

Kể từ khi ra mắt vào năm ngoái, ChatGPT được phát triển bởi Công ty Khởi nghiệp OpenAI (Mỹ) do Microsoft hậu thuẫn đã tạo ra một cơn sốt công nghệ, khiến các đối thủ chạy đua tung ra các sản phẩm tương tự và nhiều công ty đã tích hợp chatbot này hoặc các công nghệ tương tự vào các ứng dụng và sản phẩm của họ.

“Do khả năng của các LLM (mô hình ngôn ngữ lớn) như ChatGPT đang được tích cực cải thiện, nên việc bọn tội phạm có thể khai thác tiềm năng của các loại hệ thống AI này đang mang đến một viễn cảnh tồi tệ”, Europol cho biết khi trình bày báo cáo công nghệ đầu tiên bắt đầu với chatbot.

Các chuyên gia của Europol xác định trong số nhiều lĩnh vực đáng lo ngại, việc lợi dụng ChatGPT có thể gây hại lớn nhất trong 3 lĩnh vực dưới đây:

Lừa đảo và tấn công phi kỹ thuật: Khả năng soạn thảo văn bản có tính thực tế cao của ChatGPT khiến nó trở thành một công cụ hữu ích cho mục đích lừa đảo. Với khả năng của mô hình ngôn ngữ lớn LLM trong việc tái tạo các mẫu ngôn ngữ để bắt chước phong cách nói của các cá nhân hoặc các nhóm cụ thể, chatbot có thể bị lạm dụng trên quy mô lớn để đánh lừa các nạn nhân tiềm năng, khiến họ đặt niềm tin vào những kẻ phạm tội.

Thông tin sai lệch: Khả năng vượt trội của ChatGPT trong việc tạo ra các văn bản chân thực với tốc độ và quy mô lớn làm cho mô hình này trở thành một công cụ lý tưởng cho các mục đích tuyên truyền và phát tán thông tin sai lệch, vì nó cho phép người dùng tạo và truyền bá các thông điệp phản ánh một câu chuyện cụ thể chỉ với tương đối ít nỗ lực.

Tội phạm mạng: Ngoài việc tạo ngôn ngữ giống con người, ChatGPT còn có khả năng tạo mã bằng một số ngôn ngữ lập trình khác nhau. Đối với một tên tội phạm tiềm năng có chút ít kiến thức kỹ thuật, đây là một nguồn tài nguyên vô giá để sản xuất mã độc.

Theo Europol, mục đích của báo cáo này là nâng cao nhận thức về khả năng lạm dụng mô hình ngôn ngữ lớn LLM, mở ra cuộc đối thoại với các công ty trí tuệ nhân tạo (AI) để giúp họ xây dựng các biện pháp bảo vệ tốt hơn và thúc đẩy sự phát triển của các hệ thống AI an toàn và đáng tin cậy.

Rõ ràng, khi công nghệ phát triển và các mô hình mới trở nên sẵn có, việc cơ quan thực thi pháp luật luôn phải đi đầu trong những vấn đề này để dự đoán và ngăn chặn việc sử dụng với mục đích xấu sẽ ngày càng trở nên quan trọng.

BẢO NGHI (Lược dịch từ Reuters)