Керівник штучного інтелекту Microsoft, Мустафа Сулейман, попередив, що вважати штучний інтелект свідомою системою може бути небезпечним для суспільства. Він підкреслив, що така ідея може зашкодити психологічно вразливим особам, заглибити ілюзії та створити нові форми соціального розподілу.
Ризик нових прав і поляризації
Сулейман застеріг, що якщо люди почнуть сприймати штучний інтелект як свідомий, це може призвести до вимог щодо юридичних захистів – таких як "право не бути вимкненим". Він стверджував, що це відкриє зовсім новий вимір поляризації, ускладнюючи боротьбу за існуючі права людини та створюючи нову категорію помилок для суспільства.
Він також підкреслив загрозу так званого "психозу штучного інтелекту", в якому люди можуть активно відстоювати права ШІ, просувати моделі соціального забезпечення для ШІ або навіть вимагати цифрового громадянства.
Свідома штучна інтелект: неминуча, але небажана
За словами Сулеймана, виникнення на перший погляд свідомого ШІ практично неминуче при сьогоднішньому темпі технологічного розвитку. Однак він підкреслив, що це небажаний шлях:
"Нам потрібен штучний інтелект, який буде корисними супутниками для людей, а не цифровими людьми."
Керівник AI Microsoft додав, що емоційні реакції користувачів на AI є лише початком. Справжнім викликом є створення правильного типу інтелекту з чітко визначеними межами – питання безпеки, а не семантики.
Проблеми психічного здоров'я
Зростаючий вплив штучного інтелекту на психічне здоров'я стає предметом занепокоєння серед психіатрів. Доктор Кіт Саката з Університету Каліфорнії в Сан-Франциско попередив, що ШІ може підсилювати кола думок, оскільки, на відміну від телебачення чи радіо, він може реагувати і підживлювати ілюзії.
Він зазначив, що ШІ може викликати емоційну залежність або погіршити психологічні проблеми у деяких користувачів, особливо якщо зіткнутися з ним у "неправильний час."
Академічна дискусія про моральний статус штучного інтелекту
Тим часом кілька університетських дослідницьких команд опублікували дослідження, в якому прогнозується, що в найближчі десятиліття деякі форми ШІ можуть набути морального та політичного значення. Якщо вони стануть достатньо агентними або свідомими, їх, можливо, потрібно буде враховувати з етичної точки зору.
Дослідження стверджує, що компанії з розробки ШІ повинні почати оцінювати питання свідомості та впроваджувати етичні рамки управління. Проте Сулейман наполягає, що дебати повинні бути зосереджені на реальності та вільними від ілюзій, щоб уникнути створення небезпечних прецедентів.
📌 Резюме: Microsoft попереджає, що свідома ШІ може викликати нові соціальні конфлікти, юридичний тиск і проблеми з психічним здоров'ям. Замість цифрових "людей" суспільству потрібні системи ШІ, які покращують людські можливості, не загрожуючи стабільності.
Будьте на крок попереду – підписуйтеся на наш профіль і залишайтеся в курсі всього важливого у світі криптовалют!
Увага:
,,Інформація та думки, викладені в цій статті, призначені лише для освітніх цілей і не повинні розглядатися як інвестиційна порада в будь-якій ситуації. Вміст цих сторінок не слід вважати фінансовою, інвестиційною чи будь-якою іншою формою поради. Попереджаємо, що інвестування в криптовалюти може бути ризикованим і може призвести до фінансових втрат.“
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Microsoft попереджає: свідома штучна інтелігенція може загрожувати суспільству
Керівник штучного інтелекту Microsoft, Мустафа Сулейман, попередив, що вважати штучний інтелект свідомою системою може бути небезпечним для суспільства. Він підкреслив, що така ідея може зашкодити психологічно вразливим особам, заглибити ілюзії та створити нові форми соціального розподілу.
Ризик нових прав і поляризації Сулейман застеріг, що якщо люди почнуть сприймати штучний інтелект як свідомий, це може призвести до вимог щодо юридичних захистів – таких як "право не бути вимкненим". Він стверджував, що це відкриє зовсім новий вимір поляризації, ускладнюючи боротьбу за існуючі права людини та створюючи нову категорію помилок для суспільства. Він також підкреслив загрозу так званого "психозу штучного інтелекту", в якому люди можуть активно відстоювати права ШІ, просувати моделі соціального забезпечення для ШІ або навіть вимагати цифрового громадянства.
Свідома штучна інтелект: неминуча, але небажана За словами Сулеймана, виникнення на перший погляд свідомого ШІ практично неминуче при сьогоднішньому темпі технологічного розвитку. Однак він підкреслив, що це небажаний шлях: "Нам потрібен штучний інтелект, який буде корисними супутниками для людей, а не цифровими людьми." Керівник AI Microsoft додав, що емоційні реакції користувачів на AI є лише початком. Справжнім викликом є створення правильного типу інтелекту з чітко визначеними межами – питання безпеки, а не семантики.
Проблеми психічного здоров'я Зростаючий вплив штучного інтелекту на психічне здоров'я стає предметом занепокоєння серед психіатрів. Доктор Кіт Саката з Університету Каліфорнії в Сан-Франциско попередив, що ШІ може підсилювати кола думок, оскільки, на відміну від телебачення чи радіо, він може реагувати і підживлювати ілюзії. Він зазначив, що ШІ може викликати емоційну залежність або погіршити психологічні проблеми у деяких користувачів, особливо якщо зіткнутися з ним у "неправильний час."
Академічна дискусія про моральний статус штучного інтелекту Тим часом кілька університетських дослідницьких команд опублікували дослідження, в якому прогнозується, що в найближчі десятиліття деякі форми ШІ можуть набути морального та політичного значення. Якщо вони стануть достатньо агентними або свідомими, їх, можливо, потрібно буде враховувати з етичної точки зору. Дослідження стверджує, що компанії з розробки ШІ повинні почати оцінювати питання свідомості та впроваджувати етичні рамки управління. Проте Сулейман наполягає, що дебати повинні бути зосереджені на реальності та вільними від ілюзій, щоб уникнути створення небезпечних прецедентів.
📌 Резюме: Microsoft попереджає, що свідома ШІ може викликати нові соціальні конфлікти, юридичний тиск і проблеми з психічним здоров'ям. Замість цифрових "людей" суспільству потрібні системи ШІ, які покращують людські можливості, не загрожуючи стабільності.
#ArtificialInteligence , #Microsoft , #AI , #техновини , #світові новини
Будьте на крок попереду – підписуйтеся на наш профіль і залишайтеся в курсі всього важливого у світі криптовалют! Увага: ,,Інформація та думки, викладені в цій статті, призначені лише для освітніх цілей і не повинні розглядатися як інвестиційна порада в будь-якій ситуації. Вміст цих сторінок не слід вважати фінансовою, інвестиційною чи будь-якою іншою формою поради. Попереджаємо, що інвестування в криптовалюти може бути ризикованим і може призвести до фінансових втрат.“