Những gì Quản trị AI có thể học từ phương châm phi tập trung của Crypto?

Bài viết này tập trung vào tầm quan trọng của sự minh bạch và trách nhiệm giải trình trong quản trị trí tuệ nhân tạo (AI) và trí tuệ nhân tạo (ML). Sự phát triển nhanh chóng của các hệ thống dựa trên AI đang đặt ra nhiều câu hỏi quan trọng liên quan đến tác động xã hội, quản trị và triển khai đạo đức của các công nghệ và thực tiễn này. Bài viết cũng đưa ra ví dụ về những nguy cơ của việc sử dụng AI trong các lĩnh vực khác nhau, từ công việc đến trách nhiệm pháp lý, quyền riêng tư dữ liệu và chạy đua vũ trang công nghệ. Tuy nhiên, bài viết cũng nhấn mạnh rằng sự minh bạch và trách nhiệm giải trình cao hơn là điều cần thiết để đảm bảo sự phát triển bền vững của trí tuệ nhân tạo và trí tuệ nhân tạo.
Tìm hiểu lý do tại sao cần có sự minh bạch và trách nhiệm giải trình hơn trong quản trị trí tuệ nhân tạo và trí tuệ nhân tạo
Sự phát triển, ứng dụng và khả năng của các hệ thống dựa trên AI đang phát triển nhanh chóng, phần lớn chưa có câu trả lời cho nhiều câu hỏi ngắn hạn và dài hạn quan trọng liên quan đến tác động xã hội, quản trị và triển khai đạo đức của các công nghệ và thực tiễn này. Trong bài viết này, chúng ta sẽ thảo luận về những gì quản trị AI có thể học được từ các đặc tính phi tập trung của Crypto và tại sao cần có quản trị.
Nhiều lĩnh vực của xã hội đang nhanh chóng áp dụng các công nghệ kỹ thuật số và dữ liệu lớn, dẫn đến sự tích hợp thầm lặng và thường xuyên liền mạch của AI, các hệ thống tự trị và việc ra quyết định bằng thuật toán vào cuộc sống của hàng tỷ người. AI và các hệ thống thuật toán đã hướng dẫn các quyết định khác nhau trong cả khu vực tư nhân và khu vực công. Ví dụ: các nền tảng toàn cầu tư nhân, chẳng hạn như Google và Facebook, sử dụng thuật toán lọc dựa trên AI để kiểm soát quyền truy cập thông tin. AI có thể sử dụng dữ liệu này để thao túng, thiên vị, phân biệt đối xử xã hội và quyền sở hữu.
Con người không thể hiểu, giải thích hoặc dự đoán hoạt động bên trong của AI. Đây là mối quan tâm ngày càng tăng trong các tình huống mà AI được tin cậy để đưa ra các quyết định quan trọng ảnh hưởng đến cuộc sống của chúng ta. Điều này đòi hỏi tính minh bạch và trách nhiệm giải trình cao hơn của Trí tuệ nhân tạo và nhu cầu quản trị AI.
Bài học từ Ethos phi tập trung của tiền điện tử
Những gã khổng lồ công nghệ Hoa Kỳ đã nhanh chóng đi từ chỗ bị các nhà phê bình coi là những kẻ không tưởng về công nghệ tự cho mình là đúng để trở thành những người cung cấp tiếng nói mạnh mẽ nhất cho câu chuyện lạc hậu về kỹ thuật.
Tuần này, một lá thư có chữ ký của hơn 350 người, bao gồm cả người sáng lập Microsoft Bill Gates, Giám đốc điều hành OpenAI Sam Altman và cựu nhà khoa học Google Geoffrey Hinton (đôi khi được gọi là “Bố già của AI”) đã đưa ra một câu tuyên bố duy nhất: “Giảm nguy cơ tuyệt chủng AI nên là ưu tiên toàn cầu bên cạnh các rủi ro quy mô xã hội khác như đại dịch và chiến tranh hạt nhân.”
Theo Coindeck, hai tháng trước, một bức thư ngỏ trước đó được ký bởi Giám đốc điều hành Tesla và Twitter, Elon Musk cùng với 31.800 người khác đã kêu gọi tạm dừng phát triển AI trong sáu tháng để cho phép xã hội xác định rủi ro của nó đối với con người. Trong một bài bình luận cho TIME cùng tuần đó, Eliezer Yudkowsky, được coi là người sáng lập lĩnh vực trí tuệ tổng hợp nhân tạo (AGI), cho biết ông từ chối ký vào bức thư vì nó chưa đi đủ xa. Thay vào đó, ông kêu gọi quân đội buộc phải đóng cửa các phòng thí nghiệm phát triển AI để ngăn chặn sự xuất hiện của những sinh vật kỹ thuật số có thể giết chết tất cả chúng ta.
Tại sao quản trị AI lại quan trọng?
Các mối đe dọa trong công việc – Tự động hóa đã ăn mòn các công việc sản xuất trong nhiều thập kỷ. Trí tuệ nhân tạo đã tăng tốc đáng kể quá trình này và lan rộng nó sang các lĩnh vực khác mà trước đây được cho là sẽ mãi mãi nằm trong sự độc quyền của trí tuệ con người. Từ lái xe tải đến viết tin tức và thực hiện các nhiệm vụ tuyển dụng, các thuật toán AI đang đe dọa các công việc của tầng lớp trung lưu hơn bao giờ hết. Họ cũng có thể tập trung vào các lĩnh vực khác, chẳng hạn như thay thế bác sĩ, luật sư, nhà văn, họa sĩ, v.v.
Trách nhiệm pháp lý- Ai là người chịu trách nhiệm khi phần mềm hoặc phần cứng bị hỏng? Trước khi có AI, tương đối dễ dàng để xác định xem một sự cố là kết quả của hành động của người dùng, nhà phát triển hay nhà sản xuất. Nhưng trong thời đại của công nghệ điều khiển bằng AI, các ranh giới đang mờ đi. Điều này có thể trở thành một vấn đề khi các thuật toán AI bắt đầu đưa ra các quyết định quan trọng, chẳng hạn như khi ô tô tự lái phải lựa chọn giữa mạng sống của hành khách và người đi bộ. Các tình huống có thể tưởng tượng khác trong đó việc xác định lỗi và trách nhiệm pháp lý sẽ khó khăn, chẳng hạn như khi hệ thống truyền thuốc do AI điều khiển hoặc máy phẫu thuật rô-bốt gây hại cho bệnh nhân.
Quyền riêng tư của dữ liệu– Trong quá trình tìm kiếm thêm dữ liệu, các công ty có thể đang xâm nhập vào lãnh thổ chưa được khám phá và vượt qua các ranh giới về quyền riêng tư. Gần đây, chúng ta đã thấy cách Facebook thu thập dữ liệu cá nhân trong một thời gian và sử dụng dữ liệu đó theo cách dẫn đến vi phạm quyền riêng tư. Đó là trường hợp của một cửa hàng tạp hóa phát hiện ra việc bí mật mang thai của một cô gái tuổi teen. Một trường hợp khác là chương trình chia sẻ dữ liệu bệnh nhân của Dịch vụ Y tế Quốc gia Vương quốc Anh với DeepMind của Google, một động thái nhằm mục đích cải thiện khả năng dự đoán bệnh. Ngoài ra còn có vấn đề về những kẻ xấu, cả chính phủ và phi chính phủ, những người có thể sử dụng AI và ML vào mục đích xấu. Ứng dụng nhận dạng khuôn mặt hiệu quả cao của Nga ra mắt đang chứng tỏ là một công cụ tiềm năng cho các chế độ đàn áp đang tìm cách xác định và đàn áp những người bất đồng chính kiến và người biểu tình.
Chạy đua vũ trang công nghệ-Đổi mới trong trí tuệ nhân tạo được vũ khí hóa đã có nhiều hình thức. Công nghệ này được sử dụng trong các phép đo phức tạp cho phép tên lửa hành trình và máy bay không người lái tìm mục tiêu cách xa hàng trăm dặm, cũng như các hệ thống được sử dụng để phát hiện và chống lại chúng. Chẳng hạn, các thuật toán chuyên nghiệp trong việc tìm kiếm các bức ảnh về kỳ nghỉ có thể được sử dụng lại để xem xét hình ảnh vệ tinh gián điệp, trong khi phần mềm điều khiển cần thiết cho một chiếc xe tải nhỏ tự hành cũng giống như phần mềm cần thiết cho một chiếc xe tăng không người lái.
Nhiều tiến bộ gần đây trong việc phát triển và sử dụng trí tuệ nhân tạo đã xuất hiện từ nghiên cứu của các công ty như Google. Google từ lâu đã gắn liền với phương châm của công ty “Don’t be evil”. Nhưng Google gần đây đã xác nhận rằng họ đang cung cấp cho quân đội Hoa Kỳ công nghệ trí tuệ nhân tạo có thể diễn giải hình ảnh video như một phần của Dự án Maven.
Theo các chuyên gia, công nghệ này có thể được sử dụng để nhắm mục tiêu ném bom tốt hơn. Điều này có thể dẫn đến bất kỳ hệ thống vũ khí tự trị nào, một loại cỗ máy giết người bằng robot. Hệ thống AI có thể được thiết kế và vận hành ở mức độ nào để phản ánh các giá trị của con người như sự công bằng, trách nhiệm giải trình và minh bạch cũng như tránh sự bất bình đẳng và thiên vị? Vì các hệ thống dựa trên AI hiện đang tham gia vào quá trình ra quyết định, chẳng hạn như trong trường hợp vũ khí tự trị. Mức độ kiểm soát của con người là cần thiết hoặc cần thiết? Ai chịu trách nhiệm cho các bản phát hành dựa trên AI?
Để đảm bảo tính minh bạch, trách nhiệm giải trình và khả năng giải thích cho hệ sinh thái AI, chính phủ, xã hội dân sự, khu vực tư nhân và các học giả của chúng ta phải cùng thảo luận về các cơ chế quản trị nhằm giảm thiểu rủi ro và lỗ hổng có thể có của AI và các hệ thống tự trị đồng thời tận dụng tối đa của họ. tiềm năng của công nghệ này. Quá trình thiết kế một hệ sinh thái quản trị cho AI, các hệ thống tự trị và thuật toán chắc chắn là phức tạp nhưng không phải là không thể.