Бывший сотрудник OpenAI вместе с коллегами вновь выразил тревогу относительно потенциальных угроз, связанных с искусственным интеллектом. В своем письме группа утверждает, что риски недооцениваются, а стремление компании создать всеобщий ИИ (IAG) ставит под угрозу безопасность. Один из подписантов, оценивающий вероятность катастрофического вреда от ИИ в 70%, указывает на значительные пробелы в безопасности. В свете стремительного развития технологий, дискуссии об их возможных опасностях не утихают. Многие эксперты прогнозируют, что ИИ вскоре сравняется с человеческими способностями или даже превзойдет их, что может повлечь за собой множество негативных последствий.
Развитие ИИ вызывает обеспокоенность у специалистов, указывающих на возможные сценарии его вредоносного воздействия. Среди них: массовая потеря рабочих мест, утрата контроля над автономными системами и манипулирование информацией. Эти риски признаются как компаниями, разрабатывающими ИИ, так и ведущими экспертами в этой области.
Тем не менее, несмотря на многочисленные предостережения, OpenAI продолжает стремительно продвигаться вперед, игнорируя потенциальные угрозы. В своем открытом письме группа из девяти нынешних и бывших сотрудников компании выражает озабоченность по поводу недостаточной безопасности и приоритета прибыли над защитой. Среди подписантов также есть представители Google DeepMind, а письмо поддержали известные ученые, такие как Джеффри Хинтон, Йошуа Бенгио и Стюарт Рассел.
Подписавшие письмо утверждают, что внедряемые OpenAI меры безопасности не соответствуют масштабу возможных рисков. Они критикуют компанию за ограничительную политику в отношении сотрудников, поднимающих вопросы безопасности, и утверждают, что компания предпочитает гонку за первым местом в создании IAG, пренебрегая безопасностью.
Даниэль Кокотайло, один из подписантов и бывший научный сотрудник отдела управления OpenAI, покинул компанию в апреле, потеряв уверенность в ее ответственном подходе. Он, как и другие члены группы, считает, что безопасность ИИ оставляет желать лучшего. Кокотайло, принятый на работу в 2022 году, изначально прогнозировал появление IAG к 2050 году, однако быстрые темпы развития технологий изменили его мнение. Теперь он полагает, что вероятность создания IAG к 2027 году составляет 50%, а вероятность катастрофического вреда от ИИ 70%.
Примером недостаточной безопасности стала тестовая версия GPT-4, которую Microsoft протестировала в Индии без одобрения комитета по безопасности. Кокотайло подчеркивает, что такие случаи свидетельствуют о недостаточном контроле за развитием ИИ.
Компания не только игнорирует предупреждения сотрудников, но и требует от увольняющихся подписывать соглашения о неразглашении. Эти соглашения запрещают разглашение негативной информации о компании под угрозой потери капитала. Кокотайло, уволившись, рисковал потерять около 1,7 миллиона долларов. Группа подписантов утверждает, что такие соглашения мешают открыто обсуждать проблемы безопасности.
OpenAI опровергла эти обвинения, заявив, что не изымает активы бывших сотрудников и планирует удалить пункты о неразглашении. Однако группа требует более открытой политики и ответственности со стороны компании.
После публикации письма OpenAI заявила о готовности к обсуждению и сотрудничеству с правительствами и гражданским обществом. В недавнем обновлении компании говорится, что они согласны с важностью открытых дебатов и будут продолжать работать над улучшением протоколов безопасности и прозрачности.