Để Tránh Cái Chết, Nhân Loại Cần Khóa Trí Tuệ Nhân Tạo

Mục lục:

Video: Để Tránh Cái Chết, Nhân Loại Cần Khóa Trí Tuệ Nhân Tạo

Video: Để Tránh Cái Chết, Nhân Loại Cần Khóa Trí Tuệ Nhân Tạo
Video: Trí tuệ nhân tạo AI là gì? - AI có thống trị con người không? 2024, Tháng Ba
Để Tránh Cái Chết, Nhân Loại Cần Khóa Trí Tuệ Nhân Tạo
Để Tránh Cái Chết, Nhân Loại Cần Khóa Trí Tuệ Nhân Tạo
Anonim

Máy tính siêu thông minh hoặc robot đe dọa sự tồn tại của loài người là cốt truyện khoa học viễn tưởng được yêu thích. Trên thực tế, theo các nhà khoa học, kịch bản ngày tận thế như vậy chỉ có thể được ngăn chặn bằng cách tạo ra một "nhà tù" ảo để chứa trí tuệ nhân tạo (AI). Và điều này phải được thực hiện trước khi anh ấy học cách nhận thức và hoàn thiện bản thân..

Hình ảnh
Hình ảnh

Roman Yampolsky, một nhà khoa học tại Đại học Louisville, Kentucky, làm việc trong lĩnh vực khoa học máy tính, cho biết, nếu bạn để thần đèn này ra khỏi chai, thì từ một lời tiên tri có thể giải quyết các vấn đề của chúng ta, nó có thể biến thành một mối đe dọa về ngày tận thế. Các điều kiện mà AI sẽ được chứa phải được lên kế hoạch cẩn thận để nó không thể vượt qua các mối đe dọa, hối lộ, cám dỗ hoặc hack máy tính.

“Anh ấy có thể phát minh ra nhiều cách gây ảnh hưởng, tạo ra một tổ hợp kỹ thuật xã hội phức tạp và sử dụng các thành phần phần cứng hiện có cho những mục đích mà chúng ta thậm chí không thể tưởng tượng được,” Yampolsky tin tưởng. - Phần mềm như vậy có khả năng lây nhiễm máy tính và mạng không giới hạn. AI có thể tìm cách tác động đến tâm lý con người, mua chuộc hoặc tống tiền những người tiếp xúc với nó."

Sự xuất hiện của một lĩnh vực nghiên cứu khoa học mới giải quyết vấn đề tạo ra một "nhà tù" cho trí tuệ nhân tạo có thêm những lợi thế. Những nghiên cứu này rất hữu ích để cải thiện bảo mật máy tính và mật mã, Yampolsky chắc chắn. Đề xuất của ông đã được trình bày chi tiết trong số tháng 3 của tạp chí học thuật Nghiên cứu Ý thức.

Cách thiết lập bẫy cho Skynet

Để bắt đầu, bạn có thể đặt trí thông minh nhân tạo bên trong một "máy ảo". Hãy để nó hoạt động trong một hệ điều hành bình thường - việc hạn chế quyền truy cập của AI vào phần mềm và phần cứng của máy tính chủ sẽ khiến nó trở nên vô hại hơn nhiều. Trong mọi trường hợp, AI thông minh sẽ không thể gửi tin nhắn bí mật đến những người ủng hộ nó, đánh bại mã Morse bằng quạt làm mát.

Đưa trí thông minh nhân tạo vào máy tính mà không cần truy cập Internet là một cách tốt để ngăn chặn các kế hoạch ngấm ngầm của AI nhằm bảo vệ Trái đất khỏi bạn và tôi. Trong trường hợp xảy ra bất kỳ lỗi nào khác, các nhà nghiên cứu luôn có thể làm chậm quá trình suy nghĩ của AI bằng cách làm chậm tốc độ xử lý của máy tính, thường xuyên nhấn nút đặt lại hoặc ngắt kết nối AI khỏi nguồn điện.

Các biện pháp bảo mật này được thiết kế để đối phó với các loại virus máy tính rất thông minh và nguy hiểm, nhưng hiệu quả của chúng thực sự như thế nào thì không ai có thể đoán được.

Catch-22 (tiểu thuyết của nhà văn Mỹ J. Heller; ước chừng là Mixednews) là chúng tôi không thể tiến hành thử nghiệm toàn diện các ý tưởng của mình cho đến khi quá trình phát triển AI hoàn thành. Nhưng để làm cho AI an toàn, cần phải phát triển một loạt các biện pháp thích hợp, Yampolsky nói. "Lựa chọn tốt nhất là áp đặt các hạn chế đối với việc sử dụng các hệ thống AI và sau đó, khi cần thiết, thay đổi các hạn chế đó phù hợp với khả năng ngày càng tăng của AI."

Không bao giờ đặt một nhân viên bảo vệ trên xe

Trong một cuộc trò chuyện tưởng như vô tội với nhân viên bảo vệ, không gì có thể ngăn cản AI sử dụng các kỹ thuật tâm lý như tình bạn hoặc tống tiền. Một người có thể bị mua chuộc bằng cách hứa với anh ta sức khỏe hoàn hảo, sự bất tử, hoặc thậm chí là lời hứa sẽ trở về với người thân và bạn bè từ thế giới bên kia. Hoặc đạt được bất cứ điều gì với các mối đe dọa.

Cách an toàn nhất để giao tiếp với AI là làm cho nó, khi giải quyết một vấn đề khoa học hoặc kỹ thuật cụ thể, hãy chọn một câu trả lời từ nhiều tùy chọn có sẵn, Yampolsky giải thích. Điều này sẽ giúp giữ cho nhà tiên tri siêu thông minh trong một thời gian ngắn.

Nhiều nhà nghiên cứu tin rằng, bất chấp tất cả các biện pháp phòng ngừa, việc giữ cho AI thông minh trong tình trạng khóa và chìa khóa sẽ không bao giờ thành công. Thí nghiệm mới nhất của Eliezer Yudkowsky, một nhà nghiên cứu tại Viện Singularity về việc tạo ra Trí tuệ nhân tạo, cho thấy rằng ngay cả trí thông minh cấp độ con người cũng có thể đánh lừa một người và "thoát" khỏi án tù.

Tuy nhiên, Yampolsky khẳng định giữ AI trong sự cô lập nghiêm ngặt - vẫn tốt hơn là từ bỏ và cho nó hoàn toàn tự do. Nhưng nếu sự phát triển của AI đạt đến mức nó có thể thao túng một người bằng tiềm thức (dự đoán tương lai), thần giao cách cảm hoặc điều khiển từ xa, thì hậu quả sẽ khó lường.

Yampolsky cảnh báo: “Nếu một AI như vậy sẽ tự cải thiện và đạt đến mức độ vượt quá đáng kể so với khả năng của trí thông minh con người, thì hậu quả là không thể tưởng tượng được”.

Đề xuất: