Tìm hiểu cách thế giới kiểm soát AI qua các khung pháp lý quốc tế và thực tiễn đạo đức AI từ các doanh nghiệp hàng đầu.
Sự phát triển nhanh chóng của trí tuệ nhân tạo (AI) không chỉ mở ra những cơ hội mới trong y tế, giáo dục, tài chính… mà còn đặt ra những thách thức lớn về quyền riêng tư, phân biệt đối xử, sai lệch thông tin và an toàn hệ thống. Trước những nguy cơ tiềm ẩn này, thế giới đang hình thành hai xu hướng kiểm soát AI nổi bật: xây dựng các sáng kiến pháp lý toàn cầu và thúc đẩy các chuẩn mực đạo đức từ chính các doanh nghiệp công nghệ hàng đầu.
Sáng kiến pháp lý toàn cầu: Những bước đi chiến lược
Ở cấp độ quốc tế, nhiều tổ chức đã chủ động đưa ra những nguyên tắc chung nhằm định hướng sự phát triển có trách nhiệm của AI. Năm 2019, Tổ chức Hợp tác và Phát triển Kinh tế (OECD) công bố Nguyên tắc AI đầu tiên, nhấn mạnh các giá trị như tôn trọng nhân quyền, minh bạch, an toàn và khả năng giải thích của các hệ thống AI. Cũng trong năm 2019, Nhóm các nền kinh tế lớn (G20) thông qua bộ nguyên tắc riêng, tái khẳng định vai trò của AI trong thúc đẩy tăng trưởng kinh tế và giải quyết các thách thức xã hội, đồng thời nhấn mạnh tầm quan trọng của việc quản lý rủi ro công nghệ.
Năm 2021, Tổ chức Giáo dục, Khoa học và Văn hóa Liên Hợp Quốc (UNESCO) tiếp tục phê chuẩn Khuyến nghị về Đạo đức trong Trí tuệ nhân tạo, đặt ra bộ khung đạo đức đầu tiên mang tính toàn cầu đối với AI. Văn kiện này yêu cầu các quốc gia thành viên đảm bảo sự đa dạng văn hóa, bảo vệ quyền riêng tư và đưa các nguyên tắc đạo đức AI vào hệ thống pháp luật quốc gia.
Tại châu Âu, Liên minh châu Âu đi đầu trong việc luật hóa quản trị AI với việc thông qua Đạo luật AI (AI Act) vào tháng 3/2024. Đây là bộ luật toàn diện đầu tiên trên thế giới về AI, phân loại các hệ thống AI theo mức độ rủi ro từ thấp đến cao, với những yêu cầu nghiêm ngặt đối với nhóm rủi ro cao như hệ thống chấm điểm tín dụng hay công nghệ nhận diện khuôn mặt. Các vi phạm nghiêm trọng có thể bị phạt tới 35 triệu Euro hoặc 7% doanh thu toàn cầu, tương đương mức phạt theo quy định bảo vệ dữ liệu GDPR.
Tại Hoa Kỳ, thay vì một đạo luật thống nhất, chính phủ áp dụng phương pháp quản lý phân mảng theo từng ngành. Văn phòng Chính sách Khoa học và Công nghệ của Nhà Trắng (OSTP) năm 2022 đã công bố “Bản thiết kế cho Tuyên ngôn quyền AI” (Blueprint for an AI Bill of Rights), tập trung vào năm nguyên tắc cốt lõi gồm quyền được bảo vệ khỏi các hệ thống nguy hiểm, quyền kiểm soát dữ liệu, quyền được biết về các quyết định tự động, quyền được lựa chọn thay thế và quyền được can thiệp của con người. Bên cạnh đó, các cơ quan chuyên ngành như Cơ quan Quản lý Thực phẩm và Dược phẩm (FDA) cũng đưa ra các hướng dẫn riêng cho việc ứng dụng AI trong y tế.
Trung Quốc tiếp cận AI bằng mô hình kiểm soát chặt chẽ nội dung và thuật toán. Năm 2022, Cục Quản lý Không gian mạng Trung Quốc ban hành Quy định về Quản lý Dịch vụ Đề xuất Thuật toán trên Internet, yêu cầu các nền tảng phải đảm bảo sự công bằng, không kỳ thị và cho phép người dùng từ chối các dịch vụ dựa trên thuật toán. Các mô hình AI tạo sinh như chatbot hoặc công cụ sáng tạo nội dung phải được kiểm duyệt trước khi triển khai công khai.
Ở châu Á, Nhật Bản và Singapore lựa chọn cách tiếp cận mềm dẻo hơn. Nhật Bản ban hành Hướng dẫn Đạo đức AI từ năm 2019, khuyến khích doanh nghiệp tự nguyện tuân thủ các nguyên tắc về minh bạch và công bằng. Singapore nổi bật với Mẫu Khung Quản trị AI (Model AI Governance Framework), liên tục được cập nhật, mới nhất vào năm 2024, bổ sung các quy định quản lý rủi ro đối với AI tạo sinh.
Có thể thấy, các sáng kiến pháp lý toàn cầu hiện chia thành ba hướng tiếp cận chính: châu Âu đẩy mạnh luật hóa nghiêm ngặt, Hoa Kỳ và Singapore ưu tiên hướng dẫn tự nguyện gắn với ngành nghề, trong khi Trung Quốc tập trung kiểm soát nội dung nhằm bảo vệ an ninh quốc gia.
Thực tiễn kiểm soát AI từ các doanh nghiệp công nghệ hàng đầu
Song song với nỗ lực của các chính phủ, các doanh nghiệp công nghệ lớn cũng đang chủ động xây dựng và thực thi các cam kết đạo đức AI nhằm tạo dựng niềm tin xã hội và hạn chế rủi ro tiềm ẩn.
Microsoft là một trong những công ty tiên phong trong lĩnh vực này. Ngay từ năm 2018, Microsoft đã công bố bộ Nguyên tắc đạo đức AI với sáu giá trị cốt lõi, nhấn mạnh vào công bằng, minh bạch, bảo mật và trách nhiệm. Công ty cũng chủ động triển khai Fairlearn, bộ công cụ mã nguồn mở giúp phát hiện và giảm thiểu thiên lệch trong các thuật toán, đồng thời cam kết không bán công nghệ nhận diện khuôn mặt cho các cơ quan công quyền nếu thiếu quy định bảo vệ nhân quyền.
IBM tập trung phát triển các hệ thống AI có khả năng giải thích và giám sát chặt chẽ rủi ro đạo đức. Công ty đã giới thiệu nền tảng Watson OpenScale, cho phép doanh nghiệp theo dõi, phân tích và điều chỉnh các mô hình AI theo hướng minh bạch và công bằng. IBM cũng tuyên bố ngừng phát triển các công nghệ nhận diện khuôn mặt phục vụ mục đích giám sát đại trà.
Google, sau những tranh cãi liên quan tới Dự án Maven với Bộ Quốc phòng Hoa Kỳ, đã nhanh chóng ban hành bộ nguyên tắc AI nhằm đảm bảo AI phục vụ lợi ích xã hội, không gây hại và thúc đẩy sự công bằng. Tuy nhiên, thực tiễn triển khai tại Google cho thấy việc đảm bảo sự nhất quán giữa tuyên ngôn đạo đức và hành động nội bộ vẫn còn nhiều thách thức, thể hiện qua những vụ việc đình đám liên quan đến các nhà nghiên cứu AI cấp cao của hãng.
Những sáng kiến từ Microsoft, IBM và Google cho thấy doanh nghiệp không chỉ là đối tượng điều chỉnh của pháp luật, mà còn là lực lượng tiên phong trong việc xác lập tiêu chuẩn đạo đức cho sự phát triển AI toàn cầu.
Trong bối cảnh Việt Nam đang từng bước xây dựng chiến lược quốc gia về AI, việc tham khảo kinh nghiệm quốc tế về quản lý pháp lý lẫn thực tiễn đạo đức từ các tập đoàn công nghệ lớn sẽ giúp định hình một hệ sinh thái AI bền vững, nhân văn và vì con người.

Bên cạnh đó, đào tạo đội ngũ nhân lực hiểu và sử dụng AI một cách có trách nhiệm là yêu cầu cấp thiết đang đặt ra. Để đáp ứng nhu cầu này, Viện Công nghệ Blockchain và Trí tuệ nhân tạo ABAII phối hợp cùng Đại sứ quán Hoa Kỳ tổ chức Khoá học Đạo đức AI vào tháng 5/2025, với hai địa điểm tổ chức tại Hà Nội (12–13/5) và TP. Hồ Chí Minh (15–16/5).
Khoá học nhằm trang bị cho học viên nền tảng kiến thức chuyên sâu và thực tiễn về quản trị AI có trách nhiệm, đồng thời cập nhật những xu hướng quốc tế mới nhất trong việc áp dụng AI một cách minh bạch, công bằng và bền vững. Đối tượng tham gia bao gồm kỹ sư công nghệ, nhà phát triển AI, cán bộ quản lý nhà nước, nhà nghiên cứu và giảng viên.
Khóa học về đạo đức AI quy tụ đội ngũ giảng viên là những chuyên gia hàng đầu trong lĩnh vực AI và quản trị rủi ro, với mục tiêu nâng cao nhận thức và năng lực cho các chuyên gia Việt Nam.
Sau khi hoàn thành chương trình, học viên sẽ nhận chứng chỉ hoàn thành khoá học do Viện ABAII và Đại sứ quán Hoa Kỳ chứng nhận – một minh chứng giá trị cho năng lực trong lĩnh vực quản trị AI có trách nhiệm theo chuẩn quốc tế.
Hãy đăng ký tham gia Khoá học trước ngày 06/5/2025 TẠI ĐÂY.