Trong bối cảnh sự phát triển nhanh chóng của trí tuệ nhân tạo (AI), việc sử dụng AI để đào tạo AI mang theo những hệ lụy đáng lo ngại – Rối loạn mô hình tự thực.
Một nghiên cứu mới từ Đại học Stanford và Đại học Rice đã chỉ ra rằng việc sử dụng hình ảnh tạo bởi AI để huấn luyện các mô hình AI khác có thể dẫn đến những sản phẩm không chỉ tồi tệ mà còn kỳ dị. Hiện tượng này được gọi là “Rối loạn mô hình tự thực” (MAD). Tự thực là quá trình tế bào tự ăn các thành phần của chính nó, trong trường hợp này AI tạo ảnh tự tiêu hóa những nội dung do nó tạo ra.
Rối loạn mô hình tự thực là tình trạng mà hình ảnh tạo ra bởi AI có thể bị phóng đại các chi tiết không bình thường, dẫn đến dữ liệu huấn luyện sai lệch và kết quả là những bức ảnh ngày càng không giống con người. Nghiên cứu cho thấy việc bổ sung dữ liệu thực tế và mới mẻ vào mỗi thế hệ mô hình là cần thiết để tránh việc giảm chất lượng và đa dạng của mô hình.
Trí tuệ nhân tạo sẽ phải dựa vào dữ liệu thực tế do con người tạo ra với chất lượng cao để tiến xa hơn trong quá trình phát triển. Điều này tạo ra một cơ hội mới cho các nhiếp ảnh gia và người tạo nội dung, vì vai trò của họ không thể bị thay thế hoàn toàn bởi AI.
Hiện nay, nhiều công ty AI đã sử dụng dữ liệu từ các nhiếp ảnh gia để huấn luyện mô hình của mình. Vấn đề MAD có thể buộc các công ty này phải mua bản quyền dữ liệu từ các nhiếp ảnh gia, giúp duy trì sự sống cho ngành nhiếp ảnh. Mặc dù nhiều công ty phát triển AI đã tuyên bố chỉ sử dụng dữ liệu công khai trên Internet để huấn luyện, thực tế là nhiều hình ảnh trong số này vẫn bị bảo vệ bản quyền. Điều này tạo ra một thách thức pháp lý và tạo động lực cho sự hợp tác giữa các nhà phát triển AI và người tạo nội dung trong việc cải thiện mô hình AI.
Trong tương lai, việc cân nhắc cách sử dụng và đào tạo AI sẽ trở nên cực kỳ quan trọng để đảm bảo rằng sự phát triển của trí tuệ nhân tạo không chỉ mang lại lợi ích, mà còn tránh được những hệ lụy tiềm tàng và duy trì giá trị của con người trong lĩnh vực nội dung và nhiếp ảnh.
Thanh Nga