“Chatbot AI và đại dịch: Đánh giá về mối đe dọa được cho là có”

Trí tuệ nhân tạo (AI) đang đóng một vai trò ngày càng quan trọng trong cuộc sống của chúng ta, đảm bảo rằng con người sẽ tạo ra những bước nhảy vọt về lượng tử. Tuy nhiên, cùng với sức mạnh đó, AI cũng mang đến những mối đe dọa nguy hiểm. Những người dùng có thể tìm kiếm và học cách thực hiện các hành vi tàn bạo như chế tạo bom hay vũ khí sinh học. Những thử nghiệm không kiểm soát về vấn đề này có thể gây ra hậu quả đáng sợ. Do đó, chúng ta cần có các biện pháp bảo mật và quản lý thông tin hiệu quả hơn trong thế giới AI. Các công ty tổng hợp DNA cần thực hiện sàng lọc và loại trừ các bệnh lây nhiễm nguy hiểm khỏi dữ liệu đào tạo cho các hệ thống AI. Chúng ta cũng cần xem xét các giải pháp khác nhau để đối phó với mối đe dọa này để bảo vệ thế giới khỏi tác hại của công nghệ tiên tiến.
AI đang liên tục thay đổi thế giới và đảm bảo rằng con người sẽ tạo ra những bước nhảy vọt về lượng tử
Google khiến việc học cách thực hiện một cuộc tấn công khủng bố trở nên khá khó khăn. Một vài trang đầu tiên của kết quả cho một tìm kiếm trên Google về cách tạo ra một quả bom, thực hiện một vụ ám sát, hoặc giải phóng vũ khí sinh học hoặc hóa học sẽ không dạy bạn bất cứ điều gì về cách thực hiện. Những điều này không phải là không thể tìm hiểu trên internet. Các cá nhân đã tạo ra chất nổ chức năng bằng cách sử dụng thông tin có sẵn công khai. Vì mối quan tâm tương tự, các nhà khoa học đã cảnh báo những người khác không tiết lộ bản thiết kế của loại virus nguy hiểm. Tuy nhiên, trong khi tài liệu chắc chắn có sẵn trên internet, không dễ để học cách giết nhiều người, do những nỗ lực phối hợp của Google và các công cụ tìm kiếm khác.
Có bao nhiêu mạng sống dự kiến sẽ được cứu nhờ điều này? Đó là một câu hỏi khó trả lời. Không phải là chúng ta có thể có một thử nghiệm được kiểm soát một cách có trách nhiệm, trong đó các lệnh thực hiện hành vi tàn bạo hàng loạt đôi khi dễ dàng kiểm tra chứ không phải lúc khác. Tuy nhiên, tiến bộ đáng kể trong các mô hình ngôn ngữ lớn cho thấy rằng chúng tôi có thể tiến hành các thử nghiệm không kiểm soát về vấn đề này (LLM).
Sự mơ hồ cung cấp bảo mật: Khi mới phát triển ban đầu, hệ thống trí tuệ nhân tạo yêu trò chuyện GPT thường sẵn sàng đưa ra các hướng dẫn đầy đủ và chính xác để thực hiện một cuộc tấn công bằng vũ khí sinh học hoặc chế tạo bom. Phần lớn, Open AI đã điều chỉnh xu hướng này theo thời gian. Tuy nhiên, một bài tập trên lớp tại MIT đã tiết lộ rằng một nhóm sinh viên, như được ghi lại trong một bài báo in sẵn vào đầu tháng này và được đăng trên tạp chí Science tuần trước, không có kinh nghiệm sinh học liên quan, rất dễ dàng đưa ra các khuyến nghị cụ thể cho chiến tranh sinh học từ Trí tuệ nhân tạo hệ thống.
Quản lý thông tin trong thế giới AI: Jaime Yassif của Sáng kiến Đe dọa Hạt nhân nói với Science rằng chúng ta cần kiểm soát tốt hơn ở tất cả các điểm nghẽn. Việc thuyết phục các hệ thống AI cung cấp hướng dẫn rõ ràng để chế tạo vũ khí sinh học sẽ khó khăn hơn. Tuy nhiên, nhiều vấn đề bảo mật mà các hệ thống AI tình cờ phát hiện ra, chẳng hạn như lưu ý rằng người dùng có thể liên hệ với các công ty tổng hợp DNA không sàng lọc các đơn đặt hàng và do đó có nhiều khả năng chấp nhận yêu cầu tổng hợp các loại virus chết người hơn.
Tin tốt là những người ủng hộ công nghệ sinh học đang bắt đầu xem xét vấn đề này một cách nghiêm túc. Ginkgo Biowork, một công ty sinh học tổng hợp lớn, đã hợp tác với các cơ quan tình báo Hoa Kỳ để tạo ra một công cụ có thể xác định DNA nhân tạo trên quy mô lớn, cho phép các nhà điều tra tạo ra dấu vân tay vi trùng một cách nhân tạo. Sự hợp tác cho thấy công nghệ tiên tiến có thể bảo vệ thế giới khỏi tác hại của… công nghệ tiên tiến như thế nào.
Chúng tôi có thể yêu cầu tất cả các doanh nghiệp tổng hợp DNA thực hiện sàng lọc trong mọi trường hợp. Chúng ta cũng nên loại trừ các ấn phẩm về các bệnh lây nhiễm nguy hiểm khỏi dữ liệu đào tạo cho các hệ thống AI mạnh mẽ, như Esvelt gợi ý. Chúng tôi có thể thận trọng hơn trong việc công bố các nghiên cứu cung cấp hướng dẫn chính xác để tạo ra các loại vi-rút chết người trong tương lai.