Несмотря на свой потенциал по снижению затрат, DeepSeek, китайская модель генеративного ИИ, сталкивается с осторожным приемом в Сингапуре из-за опасений по поводу безопасности данных и предвзятости ИИ.
Крупные компании, включая банки, консалтинговые агентства и компании кибербезопасности, ввели строгие правила, запрещающие сотрудникам использовать DeepSeek для работы без тщательной проверки.
Модель DeepSeek R1, запущенная в январе, утверждает, что она может соперничать с технологиями OpenAI по стоимости, вызывая интерес и опасения по поводу конкуренции на рынке генеративного ИИ.
Хотя DeepSeek обещает снижение затрат на инфраструктуру и вычислительные ресурсы, эксперты предупреждают о потенциальных рисках, связанных с хранением данных, утечками корпоративных данных и предвзятостью ИИ.
Ранние тесты показывают, что DeepSeek не соответствует стандартам ответственного ИИ, вызывая опасения по поводу цензуры и конфиденциальности данных.
Южная Корея, Италия и Австралия заблокировали доступ к DeepSeek на государственных устройствах из-за опасений по поводу безопасности, что напоминает аналогичные ограничения, наложенные на ChatGPT на ранних этапах его развития.
Юридические фирмы в Сингапуре придерживаются осторожного подхода, запрещая использование DeepSeek для обработки данных клиентов до тех пор, пока его безопасность не будет тщательно проверена.
Однако некоторые компании начали экспериментировать с DeepSeek для таких задач, как кодирование и поддержка клиентов, признавая его потенциал для повышения производительности и инноваций.
Правительство Сингапура советует компаниям оценивать DeepSeek по его собственным достоинствам и оценивать риски использования, включая соблюдение соответствующих законов.
Появление DeepSeek, как ожидается, вызовет конкуренцию на рынке генеративного ИИ, способствуя инновациям и стимулируя дальнейшее развитие практики ответственного ИИ.