Chợ giá – Vừa qua, Facebook đã thừa nhận trong cuộc điều tra của Thượng viện rằng họ đang thu thập ảnh công khai từ người dùng Úc để đào tạo các mô hình trí tuệ nhân tạo (AI). Mặc dù công ty mẹ của Facebook, Meta, cho biết dữ liệu được thu thập không bao gồm thông tin từ những người dùng đã đánh dấu bài đăng của họ là “riêng tư” hoặc từ người dùng dưới 18 tuổi, nhiều người dùng vẫn lo ngại về việc sử dụng dữ liệu của họ cho mục đích không được đồng ý rõ ràng.
Mối lo ngại về việc sử dụng dữ liệu
Các mô hình AI, đặc biệt là các mô hình học sâu, yêu cầu một lượng lớn dữ liệu để đào tạo và cải thiện hiệu suất của chúng. Internet, với lượng dữ liệu khổng lồ có sẵn, đã trở thành nguồn cung cấp lý tưởng cho các công ty công nghệ. Tuy nhiên, việc sử dụng dữ liệu cá nhân mà không có sự đồng ý rõ ràng của người dùng đã gây ra nhiều lo ngại.
Chuyên gia cho biết, việc sử dụng thông tin cá nhân mà không có sự đồng ý rõ ràng có thể dẫn đến nhiều hậu quả nghiêm trọng. Nhiều công ty truyền thông đã khởi kiện các công ty AI như OpenAI vì đào tạo mô hình bằng cách sử dụng nội dung tin tức của họ mà không có sự đồng ý. Các nghệ sĩ cũng lo lắng rằng tác phẩm của họ có thể bị sử dụng mà không được phép hoặc không được bồi thường.
Ngoài ra, có những lo ngại về khả năng AI có thể tạo ra thông tin sai lệch hoặc gây hiểu lầm. Ví dụ, một thị trưởng ở Victoria đã cân nhắc hành động pháp lý chống lại Chat GPT sau khi chương trình này tuyên bố sai sự thật rằng ông có liên quan đến một vụ bê bối hối lộ.
Tình hình pháp lý quốc tế
Ở nhiều quốc gia, người dùng được bảo vệ tốt hơn nhờ vào các quy định pháp lý nghiêm ngặt. Tại Liên minh Châu Âu, Quy định bảo vệ dữ liệu chung (GDPR) yêu cầu các công ty phải có sự đồng ý rõ ràng từ người dùng trước khi sử dụng dữ liệu cá nhân cho bất kỳ mục đích nào, bao gồm cả đào tạo AI. Meta đã phải dừng việc đào tạo mô hình ngôn ngữ lớn của mình trên dữ liệu từ người dùng Châu Âu và cung cấp cho họ tùy chọn từ chối.
Tuy nhiên, người dùng Úc hiện không được bảo vệ theo cách tương tự. Các luật bảo mật hiện hành không yêu cầu các công ty phải cung cấp tùy chọn từ chối rõ ràng cho việc sử dụng dữ liệu cá nhân trong các mô hình AI. Điều này đã dẫn đến các cuộc điều tra và kêu gọi cập nhật luật pháp để bảo vệ người tiêu dùng tốt hơn.
Các bước để bảo vệ dữ liệu cá nhân
Mặc dù luật pháp hiện tại chưa cung cấp đầy đủ bảo vệ cho người dùng Úc, có một số bước mà người dùng có thể thực hiện để bảo vệ dữ liệu cá nhân của mình:
- Đánh dấu dữ liệu “ riêng tư”: Đảm bảo rằng dữ liệu và bài đăng của bạn được đánh dấu là “riêng tư” để ngăn chặn việc thu thập dữ liệu trong tương lai. Tuy nhiên, điều này không thể khắc phục việc thu thập dữ liệu đã xảy ra trước đó hoặc các hành vi thu thập dữ liệu mà bạn chưa biết.
- Khám phá các phương pháp đồng ý mới: Một số công ty khởi nghiệp công nghệ, như Spawning, đang thử nghiệm các phương pháp mới để đồng ý nhằm bảo vệ quyền lợi của người dùng trong việc phát triển AI. Dự án của họ, Source.Plus, tìm cách quản lý việc sử dụng dữ liệu truyền thông mà không vi phạm quyền sở hữu trí tuệ.
- Vận động chính phủ: Thúc đẩy chính phủ cập nhật luật bảo mật để yêu cầu các công ty AI phải xin phép trước khi thu thập và sử dụng dữ liệu cá nhân. Đồng thời, yêu cầu các cơ quan quản lý và nghiên cứu kiểm tra tính tuân thủ của các công ty công nghệ.
Triển vọng tương lai
Việc bảo vệ quyền riêng tư trong kỷ nguyên AI đòi hỏi sự thay đổi trong cách mà chúng ta tiếp cận và quản lý dữ liệu cá nhân. Cần một cuộc thảo luận rộng rãi hơn về quyền của công chúng đối với dữ liệu của họ, cũng như một cách tiếp cận mới trong việc xây dựng và phát triển các mô hình AI.
Nhìn chung, việc bảo vệ quyền riêng tư và sự đồng ý của người dùng phải là ưu tiên hàng đầu trong việc phát triển công nghệ. Người dùng và cơ quan quản lý cần phối hợp chặt chẽ để đảm bảo rằng công nghệ phục vụ cho lợi ích chung mà không xâm phạm quyền cá nhân.
Không có bình luận.
Bạn có thể trở thành người đầu tiên để lại bình luận.