Ba vấn đề hàng đầu về quyền riêng tư dữ liệu mà AI hiện nay phải đối mặt - The Daily Hodl

Ba vấn đề hàng đầu về quyền riêng tư dữ liệu mà AI hiện nay phải đối mặt – Hodl hàng ngày

Bài viết của khách HodlX  Gửi bài của bạn

 

AI (trí tuệ nhân tạo) đã gây ra sự phấn khích điên cuồng cho cả người tiêu dùng và doanh nghiệp được thúc đẩy bởi niềm tin mãnh liệt rằng LLM (mô hình ngôn ngữ lớn) và các công cụ như ChatGPT sẽ thay đổi cách chúng ta học tập, làm việc và sinh sống.

Nhưng cũng giống như những ngày đầu của Internet, người dùng đang nhảy vào mà không cân nhắc xem dữ liệu cá nhân của họ được sử dụng như thế nào - avà tìm thấy tác động mà điều này có thể có đối với quyền riêng tư của họ.

Đã có vô số ví dụ về vi phạm dữ liệu trong không gian AI. Tháng 2023/XNUMX, OpenAI tạm chiếm ChatGPT Ngoại tuyến sau một lỗi 'nghiêm trọng' có nghĩa là người dùng có thể xem lịch sử trò chuyện của người lạ.

Lỗi tương tự có nghĩa là thông tin thanh toán của người đăng ký bao gồm tên, địa chỉ email và một phần số thẻ tín dụng cũng thuộc phạm vi công cộng.

Vào tháng 2023 năm 38, XNUMX terabyte dữ liệu đáng kinh ngạc của Microsoft đã vô tình bị rò rỉ bị rò rỉ bởi một nhân viên, với các chuyên gia an ninh mạng cảnh báo điều này có thể cho phép kẻ tấn công xâm nhập vào các mô hình AI bằng mã độc.

Các nhà nghiên cứu cũng đã có thể thao tác Hệ thống AI tiết lộ hồ sơ bí mật.

Chỉ trong vài giờ, một nhóm có tên Robust Intelligence đã có thể thu thập thông tin nhận dạng cá nhân từ phần mềm Nvidia và vượt qua các biện pháp bảo vệ được thiết kế để ngăn hệ thống thảo luận về một số chủ đề nhất định.

Bài học đã được rút ra trong tất cả các tình huống này, nhưng mỗi vi phạm đều minh họa mạnh mẽ những thách thức cần phải vượt qua để AI trở thành một lực lượng đáng tin cậy và đáng tin cậy trong cuộc sống của chúng ta.

Gemini, chatbot của Google, thậm chí còn thừa nhận mọi cuộc hội thoại đều được xử lý bởi con người nhấn mạnh sự thiếu minh bạch trong hệ thống của nó.

Một cảnh báo cho người dùng cảnh báo: “Đừng nhập bất cứ thứ gì mà bạn không muốn được xem xét hoặc sử dụng”.

AI đang nhanh chóng vượt ra khỏi phạm vi một công cụ mà học sinh sử dụng để làm bài tập về nhà hoặc khách du lịch dựa vào đó để đưa ra lời khuyên trong chuyến đi tới Rome.

Nó ngày càng bị phụ thuộc vào các cuộc thảo luận nhạy cảm và cung cấp mọi thứ từ các câu hỏi y tế đến lịch trình làm việc của chúng tôi.

Vì lý do này, điều quan trọng là phải lùi lại một bước và suy ngẫm về ba vấn đề hàng đầu về quyền riêng tư dữ liệu mà AI hiện nay phải đối mặt và lý do tại sao chúng lại quan trọng đối với tất cả chúng ta.

1. Lời nhắc không riêng tư

Các công cụ như ChatGPT ghi nhớ các cuộc trò chuyện trước đây để tham khảo lại sau này. Mặc dù điều này có thể cải thiện trải nghiệm người dùng và giúp đào tạo LLM nhưng nó đi kèm với rủi ro.

Nếu một hệ thống bị tấn công thành công, sẽ có nguy cơ thực sự là các lời nhắc sẽ bị lộ trên một diễn đàn công khai.

Các chi tiết có khả năng gây bối rối trong lịch sử của người dùng có thể bị rò rỉ, cũng như thông tin nhạy cảm về mặt thương mại khi AI được triển khai cho mục đích công việc.

Như chúng tôi đã thấy từ Google, tất cả các bài gửi cũng có thể được nhóm phát triển của nó xem xét kỹ lưỡng.

Samsung đã hành động về vấn đề này vào tháng 2023 năm XNUMX khi cấm nhân viên sử dụng hoàn toàn các công cụ AI sáng tạo. Điều đó xảy ra sau khi một nhân viên tải lên mã nguồn bí mật cho ChatGPT.

Gã khổng lồ công nghệ lo ngại rằng thông tin này sẽ khó truy xuất và xóa, có nghĩa là IP (tài sản trí tuệ) cuối cùng có thể bị phân phối rộng rãi ra công chúng.

Apple, Verizon và JPMorgan cũng đã thực hiện hành động tương tự, với các báo cáo cho thấy Amazon đã tiến hành một cuộc đàn áp sau khi phản hồi từ ChatGPT có những điểm tương đồng với dữ liệu nội bộ của chính họ.

Như bạn có thể thấy, mối lo ngại không chỉ dừng lại ở những gì sẽ xảy ra nếu xảy ra vi phạm dữ liệu mà còn về khả năng thông tin được nhập vào hệ thống AI có thể được sử dụng lại và phân phối đến nhiều đối tượng hơn.

Các công ty như OpenAI đã phải đối mặt với nhiều vụ kiện trong bối cảnh có cáo buộc rằng chatbot của họ đã được đào tạo bằng tài liệu có bản quyền.

2. Các mô hình AI tùy chỉnh do các tổ chức đào tạo không có tính riêng tư

Điều này đưa chúng ta đến điểm tiếp theo một cách rõ ràng mặc dù các cá nhân và tập đoàn có thể thiết lập các mô hình LLM tùy chỉnh dựa trên nguồn dữ liệu của riêng họ nhưng chúng sẽ không hoàn toàn riêng tư nếu chúng tồn tại trong giới hạn của một nền tảng như ChatGPT.

Cuối cùng, không có cách nào để biết liệu đầu vào có được sử dụng để đào tạo các hệ thống khổng lồ này hay không hoặc liệu thông tin cá nhân có thể được sử dụng trong các mô hình tương lai hay không.

Giống như một trò chơi ghép hình, các điểm dữ liệu từ nhiều nguồn có thể được tập hợp lại với nhau để tạo thành cái nhìn sâu sắc toàn diện và chi tiết đến mức đáng lo ngại về danh tính và lý lịch của ai đó.

Các nền tảng chính cũng có thể không đưa ra giải thích chi tiết về cách lưu trữ và xử lý dữ liệu này, đồng thời không thể chọn không tham gia các tính năng mà người dùng không thấy thoải mái.

Ngoài việc phản hồi lời nhắc của người dùng, hệ thống AI ngày càng có khả năng đọc ẩn ý và suy luận mọi thứ từ vị trí của một người đến tính cách của họ.

Trong trường hợp vi phạm dữ liệu, hậu quả nghiêm trọng là có thể. Các cuộc tấn công lừa đảo cực kỳ tinh vi có thể được dàn dựng và người dùng được nhắm mục tiêu bằng thông tin mà họ đã bí mật đưa vào hệ thống AI.

Các tình huống tiềm năng khác bao gồm việc dữ liệu này được sử dụng để giả định danh tính của ai đó, cho dù đó là thông qua các ứng dụng để mở tài khoản ngân hàng hay video deepfake.

Người tiêu dùng cần phải cảnh giác ngay cả khi bản thân họ không sử dụng AI. AI đang ngày càng được sử dụng nhiều hơn để hỗ trợ hệ thống giám sát và nâng cao công nghệ nhận dạng khuôn mặt ở những nơi công cộng.

Nếu cơ sở hạ tầng như vậy không được thiết lập trong một môi trường thực sự riêng tư, quyền tự do dân sự và quyền riêng tư của vô số công dân có thể bị xâm phạm mà họ không hề hay biết.

3. Dữ liệu riêng tư được sử dụng để đào tạo hệ thống AI

Có những lo ngại rằng các hệ thống AI lớn đã thu thập thông tin tình báo của mình bằng cách nghiên cứu vô số trang web.

Ước tính cho thấy 300 tỷ từ đã được sử dụng để đào tạo ChatGPT đó là 570 gigabyte dữ liệu với sách và các mục Wikipedia trong số các bộ dữ liệu.

Các thuật toán cũng được biết là phụ thuộc vào các trang truyền thông xã hội và bình luận trực tuyến.

Với một số nguồn này, bạn có thể lập luận rằng chủ sở hữu của thông tin này có kỳ vọng hợp lý về quyền riêng tư.

Nhưng đây là điều nhiều công cụ và ứng dụng chúng ta tương tác hàng ngày đã bị ảnh hưởng nặng nề bởi AI và phản ứng với hành vi của chúng ta.

Face ID trên iPhone của bạn sử dụng AI để theo dõi những thay đổi tinh tế về ngoại hình của bạn.

Các thuật toán hỗ trợ AI của TikTok và Facebook đưa ra đề xuất nội dung dựa trên các clip và bài đăng bạn đã xem trước đây.

Các trợ lý giọng nói như Alexa và Siri cũng phụ thuộc rất nhiều vào học máy.

Hiện có một nhóm các công ty khởi nghiệp AI đáng kinh ngạc và mỗi công ty đều có một mục đích cụ thể. Tuy nhiên, một số minh bạch hơn những cách khác về cách thu thập, lưu trữ và áp dụng dữ liệu người dùng.

Điều này đặc biệt quan trọng vì AI có tác động đến lĩnh vực chăm sóc sức khỏe từ hình ảnh y tế và chẩn đoán đến lưu trữ hồ sơ và dược phẩm.

Cần rút ra bài học từ các doanh nghiệp internet vướng vào các vụ bê bối về quyền riêng tư trong những năm gần đây.

Flo, một ứng dụng sức khỏe phụ nữ, đã bị cáo bởi các cơ quan quản lý về việc chia sẻ thông tin chi tiết về người dùng của mình với Facebook và Google trong những năm 2010.

Chúng ta sẽ đi đâu từ đây

AI sẽ có tác động không thể xóa nhòa đối với cuộc sống của chúng ta trong những năm tới. LLM đang trở nên tốt hơn mỗi ngày và các trường hợp sử dụng mới tiếp tục xuất hiện.

Tuy nhiên, có một rủi ro thực sự là các cơ quan quản lý sẽ phải vật lộn để theo kịp khi ngành này phát triển với tốc độ chóng mặt.

Và điều đó có nghĩa là người tiêu dùng cần bắt đầu bảo mật dữ liệu của chính mình và giám sát cách sử dụng dữ liệu đó.

Phân cấp có thể đóng một vai trò quan trọng ở đây và ngăn chặn khối lượng lớn dữ liệu rơi vào tay các nền tảng chính.

DePIN (mạng cơ sở hạ tầng vật lý phi tập trung) có khả năng đảm bảo người dùng hàng ngày trải nghiệm đầy đủ lợi ích của AI mà không bị xâm phạm quyền riêng tư của họ.

Lời nhắc được mã hóa không chỉ có thể mang lại kết quả được cá nhân hóa hơn nhiều mà LLM bảo vệ quyền riêng tư sẽ đảm bảo người dùng luôn có toàn quyền kiểm soát dữ liệu của họ và bảo vệ chống lại việc nó bị lạm dụng.


Chris Were là Giám đốc điều hành của xác thực, một mạng dữ liệu phi tập trung, tự chủ, trao quyền cho các cá nhân kiểm soát danh tính kỹ thuật số và dữ liệu cá nhân của họ. Chris là một doanh nhân công nghệ có trụ sở tại Úc, người đã dành hơn 20 năm cống hiến cho việc phát triển các giải pháp phần mềm sáng tạo.

 

Kiểm tra các tiêu đề mới nhất trên HodlX

Theo dõi chúng tôi tại Twitter Facebook Telegram

Kiểm tra các Thông báo ngành mới nhất  

Ba vấn đề hàng đầu về quyền riêng tư dữ liệu mà AI phải đối mặt hiện nay - Thông tin dữ liệu chuỗi khối Hodl Plato hàng ngày. Tìm kiếm dọc. Ái.

Tuyên bố miễn trừ trách nhiệm: Ý kiến ​​bày tỏ tại The Daily Hodl không phải là lời khuyên đầu tư. Các nhà đầu tư nên thực hiện trách nhiệm của mình trước khi thực hiện bất kỳ khoản đầu tư rủi ro cao nào vào Bitcoin, tiền điện tử hoặc tài sản kỹ thuật số. Xin lưu ý rằng chuyển khoản và giao dịch của bạn có nguy cơ của riêng bạn và bất kỳ mất mát nào bạn có thể phải chịu là trách nhiệm của bạn. Daily Hodl không khuyến nghị mua hoặc bán bất kỳ loại tiền điện tử hoặc tài sản kỹ thuật số nào, Daily Hodl cũng không phải là cố vấn đầu tư. Xin lưu ý rằng Daily Hodl tham gia tiếp thị liên kết.

Hình ảnh được tạo: Giữa hành trình

Dấu thời gian:

Thêm từ The Daily Hodl