CẢNH BÁO VỀ RỦI RO KHI SỬ DỤNG CÁC SẢN PHẨM AI
Ngày 10/4, Hiệp hội Thanh toán và Thanh toán bù trừ Trung Quốc cảnh báo việc sử dụng công cụ trò chuyện (chatbot) ChatGPT do công ty OpenAI (Mỹ) phát triển, cũng như các công cụ theo dõi tương tự do con người tạo ra, có thể gây ra "những rủi ro như rò rỉ dữ liệu xuyên biên giới".
Hiệp hội Thanh toán và Thanh toán bù trừ Trung Quốc là một tổ chức chịu sự quản lý của ngân hàng trung ương Trung Quốc. Tuyên bố của hiệp hội này nêu rõ: "Nhân viên ngành thanh toán phải tuân thủ luật pháp và các quy tắc khi sử dụng những công cụ như ChatGPT và không nên đăng tải những thông tin mật liên quan tình hình đất nước và ngành tài chính".
Hiện OpenAI chưa hỗ trợ ChatGPT ở Trung Quốc, nhưng ứng dụng trí tuệ nhân tạo (AI) này đang thu hút sự quan tâm rất lớn, khi các công ty gấp rút tích hợp công nghệ vào các sản phẩm của mình và tung ra các giải pháp cạnh tranh.
Tuy không thể tạo tài khoản OpenAI, nhưng nhiều người ở Trung Quốc đã "né" lệnh cấm bằng cách sử dụng những mạng lưới ảo riêng tư và số điện thoại từ nước ngoài để truy cập hộp thoại.
"Cơn sốt" chạy đua phát triển chatbot đã thúc đẩy sự phục hồi của cổ phiếu công nghệ, truyền thông và viễn thông (TMT). Tuy nhiên, các nhà phân tích cảnh báo nguy cơ bong bóng từ thực trạng này. Ngày 10/4, Nhật báo Kinh tế (Economic Daily) của Trung Quốc đã đăng bài viết kêu gọi các cơ quan quản lý tăng cường giám sát và trấn áp đầu cơ trong lĩnh vực công nghệ AI.
Nguồn: Thanh Phương (TTXVN)
Tàu hàng đối mặt lựa chọn khó khăn khi phải tìm đường khác tránh khủng hoảng Biển Đỏ
23/12/2023 | 16:57
Malaysia cảnh giác trước nguy cơ số ca COVID-19 mới tăng nhanh
21/12/2023 | 04:54
Chính phủ Trung Quốc cứu trợ các khu vực bị thiệt hại do động đất
20/12/2023 | 05:44
WHO yêu cầu Trung Quốc cấp thông tin về đợt bùng phát bệnh viêm phổi bí ẩn
23/11/2023 | 16:38
LHQ: Hơn 20 triệu người phải đối mặt với nạn đói trầm trọng ở Sudan
12/11/2023 | 10:43
Căng thẳng mới giữa Ukraine và Ba Lan
06/11/2023 | 10:23
Mối đe dọa trật tự toàn cầu lớn nhất từ thập niên 1930 đang hiện hữu
03/11/2023 | 10:50

Thư điện tử của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *