ChatGPT đang thổi một làn gió mới, gây hứng khởi với người dùng phổ thông bởi sự giao tiếp giữa người với robot, dữ liệu siêu lớn và trí tuệ nhân tạo sản sinh tự học của nó. Nhưng đối với giới nghiên cứu công nghệ, thì ChatGPT cũng bình thường, bởi nó cũng là máy tự động được tạo ra bởi con người và sản phẩm nó làm ra cũng từ những gì con người cung cấp.
• Tổ chức Giáo dục trực tuyến FUNix trang bị tài khoản ChatGPT cho học viên
• 10 triệu người sử dụng ChatGPT sau 3 tháng ra mắt
Ông Thierry Breton, Ủy viên phụ trách lĩnh vực công nghiệp của Liên minh châu Âu cho biết, giới chức Liên minh châu Âu (EU) đã cảnh báo những rủi ro của ChatGPT, những rủi ro do ChatGPT gây ra đã nhấn mạnh sự cần thiết phải áp đặt các quy định về công nghệ AI đề xuất vào năm ngoái để thiết lập một tiêu chuẩn toàn cầu.
Theo nghiên cứu của UBS (Thụy Sỹ), chỉ 2 tháng sau khi ra mắt, ChatGPT đã cán mốc 100 triệu người dùng/tháng. Tuy nhiên, công cụ này cũng đặt ra nhiều vấn đề về nguy cơ thông tin sai lệch và gian lận về học vấn.
Chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc công nghệ Công ty Cổ phần Công nghệ an ninh mạng quốc gia Việt Nam (NCS) cho rằng, việc mua các tài khoản có sẵn hoặc tạo tài khoản với số điện thoại của người nước ngoài có thể dẫn đến các tình huống bị theo dõi, đọc trộm thông tin,…
Theo ông Sơn, quá nhiều người sử dụng ở một nước chưa có dịch vụ có thể dẫn tới sai lệch tính toán của nhà sản xuất, hệ quả sẽ khó lường. Vì vậy, trước khi thực hiện theo các hướng dẫn trên mạng về đăng ký, kích hoạt tài khoản ChatGPT, người dùng nên kiểm tra lại độ tin cậy của nguồn hướng dẫn, tuyệt đối không cung cấp thông tin cá nhân để tránh nguy cơ bị lừa đảo.
Từ góc nhìn của chuyên gia bảo mật, ông Ngô Minh Hiếu (Trung tâm giám sát và An toàn không gian mạng quốc gia) chia sẻ, OpenAI đang sử dụng các bộ dữ liệu có sẵn được thu thập từ nhiều nguồn để dạy ChatGPT, người dùng có thể xem như một nguồn thông tin tham khảo, không nên quá tin tưởng vào ChatGPT.
Nếu không sàng lọc về dữ liệu, ChatGPT có thể sẽ trở thành thảm họa. Hacker có thể lợi dụng chương trình này để viết các nội dung email lừa đảo. Với sự phát triển nhanh của AI người dùng cần phải cẩn trọng vì sẽ có thêm một loạt hình thức lừa đảo mới như sử dụng công nghệ để giả giọng con người hoặc che đậy danh tính thực nhằm mục đích lừa đảo, phá hoại hay bôi nhọ người khác, thậm chí qua mặt các hệ thống an ninh. Đây là điều đã từng xảy ra với sự xuất hiện của DeepFake trước đó – ông Hiếu nhấn mạnh.
Duyên Nguyễn