Các cơ quan quản lý đang nghiên cứu quy tắc để kiểm soát AI tạo sinh như ChatGPT

Các cơ quan quản lý đang nghiên cứu quy tắc để kiểm soát AI tạo sinh như ChatGPT

0:00 / 0:00
0:00
(ĐTCK) Khi cuộc đua phát triển các dịch vụ trí tuệ nhân tạo như ChatGPT tăng tốc, một số cơ quan quản lý đang dựa vào các luật hiện hành để kiểm soát một công nghệ mới có thể thay đổi hoạt động của xã hội và doanh nghiệp.

Liên minh Châu Âu đã đi đầu trong việc soạn thảo các quy tắc AI mới có thể thiết lập tiêu chuẩn toàn cầu để giải quyết các mối lo ngại về quyền riêng tư và an toàn phát sinh với những tiến bộ nhanh chóng trong công nghệ AI tạo sinh đằng sau ChatGPT của OpenAI.

Massimiliano Cimnaghi, chuyên gia quản trị dữ liệu châu Âu tại công ty tư vấn BIP cho biết: “Trong trường hợp không có quy định, điều duy nhất mà chính phủ có thể làm là áp dụng các quy tắc hiện hành. Nếu là bảo vệ dữ liệu cá nhân, họ áp dụng luật bảo vệ dữ liệu, nếu đó là mối đe dọa đến sự an toàn của con người, có những quy định chưa được xác định cụ thể cho AI, nhưng chúng vẫn được áp dụng”.

Vào tháng 4, các cơ quan giám sát quyền riêng tư quốc gia của Châu Âu đã thành lập một lực lượng đặc nhiệm để giải quyết các vấn đề với ChatGPT sau khi cơ quan quản lý dữ liệu Garante của Ý ngưng dịch vụ này bởi cáo buộc OpenAI vi phạm Quy định bảo vệ dữ liệu chung (GDPR) của EU, một chế độ bảo mật trên diện rộng được ban hành vào năm 2018.

ChatGPT đã được khôi phục sau khi OpenAI đồng ý cài đặt các tính năng xác minh độ tuổi và cho phép người dùng châu Âu chặn thông tin của họ được sử dụng để đào tạo mô hình AI.

Nhiều đạo luật về AI đang được nghiên cứu

Các mô hình AI tạo sinh đã trở nên nổi tiếng vì phạm sai lầm khi chúng thường đưa ra thông tin sai lệch nhưng chắc chắn đến kỳ lạ.

Những lỗi như vậy có thể gây ra hậu quả nghiêm trọng. Nếu một ngân hàng hoặc cơ quan chính phủ sử dụng AI để tăng tốc độ ra quyết định, các cá nhân có thể bị từ chối cho vay hoặc thanh toán lợi ích một cách không công bằng. Các công ty công nghệ lớn bao gồm Google và Microsoft đã ngừng sử dụng các sản phẩm AI được coi là rủi ro về mặt đạo đức, chẳng hạn như các sản phẩm tài chính.

Theo sáu nhà quản lý và chuyên gia ở Mỹ và châu Âu, các nhà quản lý đang nhắm tới mục đích áp dụng các quy tắc hiện có bao gồm mọi thứ, từ bản quyền và quyền riêng tư dữ liệu đến hai vấn đề chính là dữ liệu được đưa vào các mô hình và nội dung mà chúng tạo ra.

Suresh Venkatasubramanian, cựu cố vấn công nghệ của Nhà Trắng cho biết, các cơ quan ở hai khu vực đang được khuyến khích "diễn giải và diễn giải lại các nhiệm vụ của họ". Ông trích dẫn cuộc điều tra của Ủy ban Thương mại Liên bang Mỹ (FTC) về các thuật toán đối với các hành vi phân biệt đối xử dưới các quyền hạn quy định hiện hành.

Tại EU, các đề xuất cho Đạo luật AI của EU sẽ buộc các công ty như OpenAI phải tiết lộ bất kỳ tài liệu có bản quyền nào được sử dụng để đào tạo các mô hình của họ, khiến họ dễ gặp phải các thách thức pháp lý.

Theo Sergey Lagodinsky, một trong số các chính trị gia tham gia soạn thảo các đề xuất của EU, việc chứng minh vi phạm bản quyền sẽ không đơn giản.

Suy nghĩ sáng tạo

Theo Bertrand Pailhes, trưởng nhóm công nghệ của cơ quan quản lý dữ liệu CNIL của Pháp đã bắt đầu "suy nghĩ sáng tạo" về cách các luật hiện hành có thể áp dụng cho AI.

“Chúng tôi đang xem xét toàn bộ các tác động, mặc dù trọng tâm của chúng tôi vẫn là bảo vệ dữ liệu và quyền riêng tư”, ông cho biết.

CNIL đang xem xét sử dụng một điều khoản của GDPR để bảo vệ các cá nhân khỏi quá trình ra quyết định tự động.

“Ở giai đoạn này, tôi không thể nói liệu nó có đủ về mặt pháp lý hay không. Sẽ mất một thời gian để đưa ra ý kiến và có nguy cơ các cơ quan quản lý khác nhau sẽ đưa ra quan điểm khác nhau”, ông cho biết.

Ở Anh, Cơ quan quản lý tài chính (FCA) là một trong số các cơ quan quản lý được giao nhiệm vụ soạn thảo các hướng dẫn mới về AI.

Trong khi các cơ quan quản lý thích nghi với tốc độ tiến bộ của công nghệ, một số người trong ngành đã kêu gọi sự tham gia nhiều hơn của các nhà lãnh đạo công ty.

Harry Borovick, cố vấn chung của Luminance, một công ty khởi nghiệp sử dụng AI để xử lý các tài liệu pháp lý cho biết đối thoại giữa các cơ quan quản lý và các công ty cho đến nay vẫn còn "hạn chế".

“Điều này không báo trước điều gì đặc biệt tốt về tương lai. Các cơ quan quản lý dường như chậm hoặc không sẵn sàng thực hiện các phương pháp giúp tạo ra sự cân bằng phù hợp giữa bảo vệ người tiêu dùng và tăng trưởng kinh doanh”, ông cho biết.

Tin bài liên quan