Trí tuệ nhân tạo: Có thực sự là mối đe doạ diệt vong cho nhân loại?

Sam Altman, CEO của OpenAI, đã đưa ra quan điểm rằng công nghệ đang phát triển tạo nền tảng cho sản phẩm nổi tiếng nhất của công ty có thể dẫn đến sự kết thúc của nền văn minh nhân loại. Mặc dù ông và công ty đang phát triển một "vũ khí đáng sợ" này, Altman đã đưa ra lời kêu gọi khẩn cấp đến Thượng viện Mỹ để thiết lập quy định chặt chẽ đối với trí tuệ nhân tạo, nhằm giảm thiểu nguy cơ ảnh hưởng tiêu cực đến loài người.

Altman đã nêu rõ "rủi ro sâu sắc đối với xã hội và nhân loại" khi công nghệ trí tuệ nhân tạo phát triển. Mặc dù sản phẩm của OpenAI, ChatGPT, đã mang lại nhiều ứng dụng tích cực trong nhiều lĩnh vực như giáo dục, tài chính, nông nghiệp và y học, nhưng cũng đồng thời gây ra những lo ngại về mất việc làm và sự thay đổi lớn trong thị trường lao động.

tri-tue-nhan-tao-moi-de-doa-diet-vong-va-nghich-ly-thoi-dai-ai-152507612-1700557185.jpg
Giao diện ChatGPT trên trang web. Ảnh: Shutterstock

Trong bối cảnh sự phổ biến của trí tuệ nhân tạo, Altman cùng hàng trăm nhà khoa học và lãnh đạo doanh nghiệp hàng đầu về AI đã ký một lá thư cảnh báo về nguy cơ tuyệt chủng từ AI, đồng thời yêu cầu giảm thiểu rủi ro này và đặt nó là ưu tiên toàn cầu.

Tuy nhiên, có một nghịch lý khi một số CEO công nghệ lớn, bao gồm cả Altman, vẫn tiếp tục đầu tư và triển khai công nghệ trí tuệ nhân tạo, mặc dù đã cảnh báo về nguy cơ lớn mà nó mang lại. Altman đã gặp Tổng thống Biden để nhấn mạnh tầm quan trọng của việc phát triển AI có đạo đức và trách nhiệm.

Tuy nhiên, có người cho rằng cần thận trọng hơn trong việc phát triển AI mạnh mẽ. Ngay cả Elon Musk, người đã giúp thành lập OpenAI, cùng nhiều nhà lãnh đạo công nghệ và nhà nghiên cứu, đã kêu gọi tạm dừng đào tạo hệ thống AI mạnh nhất trong ít nhất 6 tháng, với lý do là "rủi ro sâu sắc đối với xã hội và nhân loại". Altman cho biết ông đồng ý với một số điều trong đề xuất như tăng mức an toàn, nhưng không cho rằng việc tạm dừng là giải pháp tối ưu.

Trong khi Tổng thống Biden đã đưa ra một sắc lệnh yêu cầu các nhà phát triển AI mạnh mẽ chia sẻ kết quả kiểm tra độ an toàn trước khi công bố, nhiều người vẫn đặt ra câu hỏi liệu có thể tin tưởng vào việc các CEO công nghệ sẽ hành động vì lợi ích của cộng đồng và nhân loại hay không.

Altman, CEO của OpenAI, đã lâu nay đã thể hiện sự quan tâm đối với rủi ro mà AI mang lại và cam kết hành động có trách nhiệm. Ông đã có cuộc gặp với các nhà lãnh đạo Nhà Trắng để đặt ra vấn đề quan trọng về việc phát triển AI với đạo đức và trách nhiệm.

tri-tue-nhan-tao-moi-de-doa-diet-vong-va-nghich-ly-thoi-dai-ai-152548707-1700557185.jpg
CEO Sam Altman của OpenAI phát biểu trước Thượng viện Mỹ vào ngày 16 tháng 5 tại Washington, Mỹ. Ảnh: AP

Tuy nhiên, có ý kiến cho rằng cần phải thận trọng hơn trong việc phát triển AI mạnh mẽ. Ngay cả Elon Musk, người đã đóng góp vào việc thành lập OpenAI, cùng nhiều nhà lãnh đạo công nghệ và nhà nghiên cứu, đã kêu gọi tạm dừng đào tạo các hệ thống AI mạnh nhất trong ít nhất 6 tháng, với lý do là "rủi ro sâu sắc đối với xã hội và nhân loại". Altman cho biết ông đồng ý với một số điều trong đề xuất như tăng mức an toàn, nhưng không cho rằng việc tạm dừng là giải pháp tối ưu.

Mặc dù Tổng thống Biden đã đưa ra sắc lệnh yêu cầu các nhà phát triển AI mạnh mẽ chia sẻ kết quả kiểm tra độ an toàn trước khi công bố, nhưng vẫn có lo ngại liệu có thể tin tưởng vào việc các CEO công nghệ sẽ hành động vì lợi ích của cộng đồng và nhân loại hay không.

Nói chung, trong bối cảnh lo ngại về nguy cơ tiêu cực từ sự phát triển của trí tuệ nhân tạo, sự cân nhắc và đối thoại mở rộng giữa các bên liên quan là quan trọng để xây dựng một tương lai với công nghệ AI được quản lý một cách có trách nhiệm và đạo đức.