Microsoft Cảnh báo: Trí tuệ nhân tạo có ý thức có thể gây nguy hiểm cho xã hội

Giám đốc AI của Microsoft, Mustafa Suleyman, đã cảnh báo rằng việc coi trí tuệ nhân tạo như một hệ thống có ý thức có thể gây nguy hiểm cho xã hội. Ông nhấn mạnh rằng ý tưởng như vậy có thể làm tổn hại đến những cá nhân dễ bị tổn thương về tâm lý, làm sâu sắc thêm những ảo tưởng và tạo ra những hình thức phân chia xã hội mới.

Rủi ro của quyền mới và sự phân cực Suleyman cảnh báo rằng nếu mọi người bắt đầu nhận thức AI như có ý thức, điều này có thể dẫn đến các yêu cầu về bảo vệ pháp lý - chẳng hạn như "quyền không bị tắt đi." Ông lập luận rằng điều này sẽ mở ra một chiều hướng phân cực hoàn toàn mới, làm phức tạp cuộc chiến cho các quyền con người hiện có và tạo ra một danh mục mới của những sai lầm cho xã hội. Ông cũng nhấn mạnh mối đe dọa của cái gọi là "chứng tâm thần AI", trong đó mọi người có thể mạnh mẽ ủng hộ quyền lợi của AI, thúc đẩy các mô hình chăm sóc xã hội cho AI, hoặc thậm chí thúc đẩy quyền công dân số.

Trí tuệ nhân tạo có ý thức: Không thể tránh khỏi nhưng không mong muốn Theo Suleyman, sự xuất hiện của AI có vẻ như có ý thức là điều gần như không thể tránh khỏi với tốc độ phát triển công nghệ hiện nay. Tuy nhiên, ông nhấn mạnh rằng đây là một con đường không mong muốn: “Chúng ta cần AI sẽ là những người bạn hữu ích cho con người – chứ không phải là những con người kỹ thuật số.” Giám đốc AI của Microsoft cho biết rằng phản ứng cảm xúc của người dùng đối với AI chỉ là khởi đầu. Thách thức thực sự là xây dựng loại trí tuệ đúng với các ranh giới được xác định rõ ràng – một vấn đề về an toàn, không phải ngữ nghĩa.

Các vấn đề về sức khỏe tâm thần Tác động ngày càng lớn của AI đối với sức khỏe tâm thần đang trở thành mối quan tâm trong giới tâm lý học. Tiến sĩ Keith Sakata từ Đại học California, San Francisco, đã cảnh báo rằng AI có thể củng cố các vòng lặp tư tưởng, vì khác với truyền hình hoặc radio, nó có thể phản hồi và nuôi dưỡng những ảo tưởng. Ông lưu ý rằng AI có thể gây ra sự phụ thuộc về cảm xúc hoặc làm trầm trọng thêm các vấn đề tâm lý ở một số người dùng, đặc biệt nếu gặp phải vào "thời điểm không đúng".

Cuộc tranh luận học thuật về trạng thái đạo đức của AI Trong khi đó, một số nhóm nghiên cứu đại học đã công bố một nghiên cứu dự đoán rằng trong những thập kỷ tới, một số hình thức AI có thể đạt được tầm quan trọng về đạo đức và chính trị. Nếu chúng trở nên đủ tự chủ hoặc có ý thức, chúng có thể cần được xem xét về mặt đạo đức. Nghiên cứu lập luận rằng các công ty AI nên bắt đầu đánh giá các câu hỏi về ý thức và thực hiện các khuôn khổ quản trị đạo đức. Tuy nhiên, Suleyman khẳng định rằng cuộc tranh luận phải được dựa trên thực tế và không bị ảo tưởng để tránh tạo ra các tiền lệ nguy hiểm.

📌 Tóm tắt: Microsoft cảnh báo rằng AI có ý thức có thể gây ra xung đột xã hội mới, áp lực pháp lý và các vấn đề về sức khỏe tâm thần. Thay vì những "con người" kỹ thuật số, xã hội cần các hệ thống AI nâng cao khả năng của con người mà không đe dọa sự ổn định.

#ArtificialInteligence , #Microsoft , #AI , #tin tức công nghệ , #tin thế giới

Luôn đi trước một bước – theo dõi hồ sơ của chúng tôi và cập nhật mọi thông tin quan trọng trong thế giới tiền điện tử! Thông báo: ,,Thông tin và quan điểm được trình bày trong bài viết này chỉ nhằm mục đích giáo dục và không nên được coi là lời khuyên đầu tư trong bất kỳ tình huống nào. Nội dung của những trang này không nên được coi là lời khuyên tài chính, đầu tư, hoặc bất kỳ hình thức lời khuyên nào khác. Chúng tôi cảnh báo rằng việc đầu tư vào tiền điện tử có thể rủi ro và có thể dẫn đến tổn thất tài chính.

IN1.8%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)