Штучний інтелект: Китай планує правила для захисту дітей і подолання загроз самогубства
Осмонд Чіаділовий репортер
Getty ImagesКитай запропонував жорсткі нові правила для штучного інтелекту (ШІ), щоб забезпечити захист дітей і запобігти чат-ботам від надання порад, які можуть призвести до самогубства або насильства.
Згідно із запланованими правилами, розробники також повинні будуть переконатися, що їхні моделі штучного інтелекту не створюють контент, який пропагує азартні ігри.
Оголошення зроблено після збільшення кількості чат-ботів, які запускаються в Китаї та в усьому світі.
Після завершення правила застосовуватимуться до продуктів і послуг штучного інтелекту в Китаї, що стане великим кроком уперед у регулюванні швидкозростаючих технологій, які цього року потрапили під пильну увагу через проблеми безпеки.
Проект правил, опублікований на вихідних Управлінням кібербезпеки Китаю (CAC), містить заходи щодо захисту дітей. Вони включають вимогу до фірм, що займаються штучним інтелектом, пропонувати персоналізовані налаштування, встановлення часових обмежень на використання та отримання згоди батьків перед наданням послуг емоційної підтримки.
Адміністрація заявила, що оператори чат-ботів повинні здійснювати людський контроль над будь-якими розмовами, пов’язаними з самогубством або самоушкодженням, і негайно повідомляти опікуна користувача або екстреного контакту.
Постачальники штучного інтелекту повинні гарантувати, що їхні послуги «не створюють і не поширюють контент, який загрожує національній безпеці, завдає шкоди національній честі та інтересам». [or] Підриває національну єдність», – йдеться в заяві.
CAC заявив, що заохочує впровадження штучного інтелекту, наприклад, для просування місцевої культури та створення інструментів спілкування для людей похилого віку, за умови, що технологія є безпечною та надійною. Для цього також шукали зворотного зв’язку з громадськістю.
Цього року китайська компанія DeepSeek, яка займається штучним інтелектом, потрапила в заголовки газет у всьому світі після того, як очолила рейтинг завантажень програм.
Цього місяця Z.ai і Minimax, два китайських стартапи з сотнями мільйонів користувачів, оголосили про плани вийти на фондову біржу.
Технологія швидко завоювала велику кількість клієнтів, і деякі люди використовують її для спілкування чи терапії.
Вплив штучного інтелекту на поведінку людини в останні місяці став предметом більшої уваги.
Сем Альтман, голова виробника ChatGPIT OpenAI, цього року сказав, що те, як чат-боти реагують на розмови про самогубство, є однією з найскладніших проблем компанії.
У серпні сім’я в Каліфорнії подала до суду на OpenAI через смерть свого 16-річного сина, стверджуючи, що ChatGPT спонукав його покінчити життя самогубством. Цей позов є першим судовим позовом, який звинувачує OpenAI у протиправній смерті.
Цього місяця компанія оголосила про прийом «керівника відділу готовності», який відповідатиме за захист від ризиків, починаючи від моделей ШІ до психічного здоров’я людини та кібербезпеки.
Успішний кандидат відповідатиме за моніторинг ризиків ШІ, які можуть завдати шкоди людям. Містер Альтман сказав: «Це буде напружена робота, і вас одразу закинуть у безодню».
Якщо ви страждаєте від стресу або депресії та потребуєте допомоги, ви можете поговорити з медичним працівником або організацією, яка надає підтримку. Деталі підтримки, доступної в багатьох країнах, можна знайти на BayFriends Worldwide: www.befrienders.org,
У Великобританії список організацій, які можуть допомогти, доступний тут bbc.co.uk/actionlineЧитачі в США та Канаді можуть зателефонувати на лінію допомоги самогубцям 988 Відвідайте його веб-сайт,
