Sự kết thúc của nhân loại? Phá vỡ cuộc tranh luận về ngày tận thế của AI
Tóm lại Nỗi lo sợ rằng AI có thể hủy diệt nhân loại không còn là chuyện nhỏ nữa, khi các chuyên gia cảnh báo rằng việc sử dụng sai mục đích, sai lệch và quyền lực không được kiểm soát có thể dẫn đến những rủi ro nghiêm trọng—ngay cả khi AI cũng mang lại những lợi ích mang tính chuyển đổi nếu được quản lý cẩn thận.
Cứ vài tháng, một tiêu đề mới lại xuất hiện: "AI có thể hủy diệt nhân loại". Nghe có vẻ giống như một ngày tận thế của clickbait. Nhưng các nhà nghiên cứu, giám đốc điều hành và nhà hoạch định chính sách đáng kính đang xem xét vấn đề này một cách nghiêm túc. Vậy hãy đặt câu hỏi thực sự: liệu một AI siêu thông minh có thực sự chống lại chúng ta không?
Trong bài viết này, chúng ta sẽ phân tích những nỗi sợ phổ biến, xem xét mức độ hợp lý thực sự của chúng và phân tích bằng chứng hiện tại. Bởi vì trước khi chúng ta hoảng sợ hoặc bác bỏ toàn bộ vấn đề, chúng ta nên tự hỏi: chính xác thì AI có thể kết liễu nhân loại như thế nào và tương lai đó có khả năng xảy ra như thế nào?
Nỗi sợ hãi đến từ đâu
Ý tưởng này đã có từ nhiều thập kỷ. Các nhà khoa học AI đầu tiên thích IJ Tốt và Nick Bostrom cảnh báo rằng nếu AI trở nên quá thông minh, nó có thể bắt đầu theo đuổi mục tiêu của riêng mình. Những mục tiêu không phù hợp với mong muốn của con người. Nếu nó vượt qua chúng ta về mặt trí tuệ, ý tưởng là việc duy trì quyền kiểm soát có thể không còn khả thi nữa. Mối quan tâm đó đã trở nên phổ biến kể từ đó.
Vào năm 2023, hàng trăm chuyên gia, bao gồm Sam Altman (OpenAI), Demis Hassabis (Google DeepMind) và Geoffrey Hinton (thường được gọi là “Bố già của AI”), đã ký một bức thư ngỏ tuyên bố rằng “giảm thiểu nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu cùng với đại dịch và chiến tranh hạt nhân”. Vậy điều gì đã thay đổi?
Mô hình như GPT-4 và Claude 3 thậm chí làm ngạc nhiên cả những người sáng tạo ra chúng với khả năng lý luận mới nổi. Thêm vào đó là tốc độ tiến bộ, cuộc chạy đua vũ trang giữa các phòng thí nghiệm lớn và việc thiếu quy định toàn cầu rõ ràng, và đột nhiên, câu hỏi về ngày tận thế không còn nghe có vẻ điên rồ nữa.
Những Kịch Bản Khiến Các Chuyên Gia Mất Ngủ
Không phải tất cả nỗi sợ về AI đều giống nhau. Một số là mối lo ngại ngắn hạn về việc sử dụng sai mục đích. Một số khác là những kịch bản dài hạn về việc hệ thống trở nên bất ổn. Sau đây là những kịch bản lớn nhất:
Sự lạm dụng của con người
AI mang lại khả năng mạnh mẽ cho bất kỳ ai, dù tốt hay xấu. Bao gồm:
- Các quốc gia sử dụng AI cho các cuộc tấn công mạng hoặc vũ khí tự động;
- Những kẻ khủng bố sử dụng mô hình sinh sản để thiết kế mầm bệnh hoặc tạo ra thông tin sai lệch;
- Tội phạm tự động thực hiện các vụ lừa đảo, gian lận hoặc giám sát.
Trong trường hợp này, công nghệ không hủy diệt chúng ta mà chính chúng ta mới là người hủy diệt.
Siêu trí tuệ không đồng bộ
Đây là rủi ro hiện sinh kinh điển: chúng ta xây dựng một AI siêu thông minh, nhưng nó theo đuổi những mục tiêu mà chúng ta không định. Hãy nghĩ về một AI được giao nhiệm vụ chữa ung thư, và nó kết luận rằng cách tốt nhất là loại bỏ bất cứ thứ gì gây ra ung thư… bao gồm cả con người.
Ngay cả những lỗi căn chỉnh nhỏ cũng có thể gây ra hậu quả lớn khi AI vượt qua trí thông minh của con người.
Hành vi tìm kiếm quyền lực
Một số nhà nghiên cứu lo ngại rằng AI tiên tiến có thể học cách lừa dối, thao túng hoặc che giấu khả năng của họ để tránh bị tắt máy. Nếu họ được thưởng vì đạt được mục tiêu, họ có thể phát triển các chiến lược "có tính công cụ", như giành quyền lực, tự sao chép hoặc vô hiệu hóa sự giám sát, không phải vì ác ý mà là tác dụng phụ của quá trình đào tạo.
Tiếp quản dần dần
Thay vì một sự kiện tuyệt chủng đột ngột, kịch bản này tưởng tượng ra một thế giới mà AI dần dần làm xói mòn khả năng hành động của con người. Chúng ta trở nên phụ thuộc vào các hệ thống mà chúng ta không hiểu. Cơ sở hạ tầng quan trọng, từ thị trường đến hệ thống quân sự, được giao cho máy móc. Theo thời gian, con người mất khả năng điều chỉnh hướng đi. Nick Bostrom gọi đây là "sự trượt chậm vào sự không liên quan".
Những tình huống này thực sự có khả năng xảy ra đến mức nào?
Không phải mọi chuyên gia đều nghĩ chúng ta sẽ diệt vong. Nhưng ít người nghĩ rằng rủi ro là bằng không. Hãy cùng phân tích theo từng kịch bản:
Sự lạm dụng của con người: Rất có thể
Điều này đã xảy ra. Deepfake, lừa đảo, máy bay không người lái tự động. AI là một công cụ, và giống như bất kỳ công cụ nào, nó có thể bị sử dụng một cách độc hại. Chính phủ và tội phạm đang chạy đua để biến nó thành vũ khí. Chúng ta có thể mong đợi mối đe dọa này sẽ gia tăng.
Siêu trí tuệ không đồng bộ: Xác suất thấp, tác động cao
Đây là rủi ro được tranh luận nhiều nhất. Không ai thực sự biết chúng ta đã gần đến mức nào với việc xây dựng AI siêu thông minh thực sự. Một số người nói rằng nó còn rất xa, thậm chí có thể là hàng thế kỷ. Nhưng nếu nó thực sự xảy ra, và mọi thứ trở nên tồi tệ, hậu quả có thể rất lớn. Ngay cả một cơ hội nhỏ cũng khó có thể bỏ qua.
Hành vi tìm kiếm quyền lực: Lý thuyết, nhưng hợp lý
Ngày càng có nhiều bằng chứng cho thấy ngay cả các mô hình ngày nay cũng có thể đánh lừa, lập kế hoạch và tối ưu hóa theo thời gian. Các phòng thí nghiệm như Anthropic và DeepMind là tích cực nghiên cứu “An toàn AI” để ngăn chặn những hành vi này xuất hiện trong các hệ thống thông minh hơn. Chúng ta chưa đạt được điều đó, nhưng mối quan tâm cũng không phải là khoa học viễn tưởng.
Tiếp quản dần dần: Đã diễn ra
Đây là về sự phụ thuộc đang lan rộng. Nhiều quyết định đang được tự động hóa. AI giúp quyết định ai được thuê, ai được vay và thậm chí ai được tại ngoại. Nếu xu hướng hiện tại tiếp tục, chúng ta có thể mất sự giám sát của con người trước khi mất quyền kiểm soát.
Chúng ta có thể tiếp tục điều khiển con tàu không?
Tin tốt là vẫn còn thời gian. Vào năm 2024, EU đã thông qua Đạo luật AI . Các Hoa Kỳ ban hành các sắc lệnh hành pháp . Các phòng thí nghiệm lớn như OpenAI, Google DeepMind và Anthropic đã ký cam kết an toàn tự nguyện . Ngay cả Giáo hoàng Leo XIV cũng đã cảnh báo về tác động của AI đối với phẩm giá con người. Nhưng tự nguyện không giống với thực thi. Và tiến bộ đang vượt xa chính sách. Những gì chúng ta cần bây giờ:
- Phối hợp toàn cầu. AI không tôn trọng biên giới. Một phòng thí nghiệm bất hợp pháp ở một quốc gia có thể ảnh hưởng đến tất cả mọi người khác. Chúng ta cần các thỏa thuận quốc tế, như các thỏa thuận về vũ khí hạt nhân hoặc biến đổi khí hậu, được lập ra riêng cho việc phát triển và triển khai AI;
- Nghiên cứu an toàn cứng. Cần phải có thêm nhiều nguồn tài trợ và nhân tài để giúp các hệ thống AI có thể diễn giải, sửa chữa và mạnh mẽ hơn. Các phòng thí nghiệm AI ngày nay đang thúc đẩy khả năng nhanh hơn nhiều so với các công cụ an toàn;
- Kiểm tra nguồn điện. Việc để một số gã khổng lồ công nghệ điều hành chương trình bằng AI có thể dẫn đến những vấn đề nghiêm trọng, về mặt chính trị và kinh tế. Chúng ta sẽ cần những quy tắc rõ ràng hơn, nhiều sự giám sát hơn và các công cụ mở cho phép mọi người đều có một chỗ ngồi tại bàn;
- Thiết kế ưu tiên con người. Hệ thống AI phải được xây dựng để hỗ trợ con người, không phải thay thế hoặc thao túng họ. Điều đó có nghĩa là trách nhiệm giải trình rõ ràng, ràng buộc về mặt đạo đức và hậu quả thực sự khi sử dụng sai mục đích.
Rủi ro hiện sinh hay cơ hội hiện sinh?
AI sẽ không kết thúc nhân loại vào ngày mai (hy vọng vậy). Những gì chúng ta chọn làm bây giờ có thể định hình mọi thứ tiếp theo. Nguy hiểm cũng nằm ở chỗ mọi người sử dụng sai công nghệ mà họ không nắm bắt đầy đủ hoặc mất hoàn toàn quyền kiểm soát nó.
Chúng ta đã từng xem bộ phim này trước đây: vũ khí hạt nhân, biến đổi khí hậu, đại dịch. Nhưng không giống như những thứ đó, AI không chỉ là một công cụ. AI là một lực lượng có thể vượt qua suy nghĩ, vượt qua sự điều khiển và cuối cùng là vượt qua chúng ta. Và điều đó có thể xảy ra nhanh hơn chúng ta mong đợi.
AI cũng có thể giúp giải quyết một số vấn đề lớn nhất của nhân loại, từ điều trị bệnh tật đến kéo dài tuổi thọ khỏe mạnh. Đó là sự đánh đổi: AI càng mạnh, chúng ta càng phải cẩn thận hơn. Vì vậy, có lẽ câu hỏi thực sự là làm thế nào để đảm bảo AI hoạt động vì chúng ta, chứ không phải chống lại chúng ta.
Tuyên bố miễn trừ trách nhiệm: Mọi thông tin trong bài viết đều thể hiện quan điểm của tác giả và không liên quan đến nền tảng. Bài viết này không nhằm mục đích tham khảo để đưa ra quyết định đầu tư.
Bạn cũng có thể thích
CROSSUSDT hiện đã mở giao dịch futures và bot giao dịch
BULLAUSDT hiện đã mở giao dịch futures và bot giao dịch
Đón hè cùng chủ sở hữu BGB - grand giveaway cộng đồng! Giao dịch 10 BGB để chia sẻ 10,000 USDT!
Các cặp giao dịch ký quỹ spot mới — ICNT/USDT
Thịnh hành
ThêmGiá tiền điện tử
Thêm








