Потенциал DeepSeek по снижению затрат вызывает осторожность в Сингапуре: компании взвешивают риски безопасности данных и предвзятости ИИ

Несмотря на свой потенциал по снижению затрат, DeepSeek, китайская модель генеративного ИИ, сталкивается с осторожным приемом в Сингапуре из-за опасений по поводу безопасности данных и предвзятости ИИ.

  • Крупные компании, включая банки, консалтинговые агентства и компании кибербезопасности, ввели строгие правила, запрещающие сотрудникам использовать DeepSeek для работы без тщательной проверки.

  • Модель DeepSeek R1, запущенная в январе, утверждает, что она может соперничать с технологиями OpenAI по стоимости, вызывая интерес и опасения по поводу конкуренции на рынке генеративного ИИ.

  • Хотя DeepSeek обещает снижение затрат на инфраструктуру и вычислительные ресурсы, эксперты предупреждают о потенциальных рисках, связанных с хранением данных, утечками корпоративных данных и предвзятостью ИИ.

  • Ранние тесты показывают, что DeepSeek не соответствует стандартам ответственного ИИ, вызывая опасения по поводу цензуры и конфиденциальности данных.

  • Южная Корея, Италия и Австралия заблокировали доступ к DeepSeek на государственных устройствах из-за опасений по поводу безопасности, что напоминает аналогичные ограничения, наложенные на ChatGPT на ранних этапах его развития.

  • Юридические фирмы в Сингапуре придерживаются осторожного подхода, запрещая использование DeepSeek для обработки данных клиентов до тех пор, пока его безопасность не будет тщательно проверена.

  • Однако некоторые компании начали экспериментировать с DeepSeek для таких задач, как кодирование и поддержка клиентов, признавая его потенциал для повышения производительности и инноваций.

  • Правительство Сингапура советует компаниям оценивать DeepSeek по его собственным достоинствам и оценивать риски использования, включая соблюдение соответствующих законов.

  • Появление DeepSeek, как ожидается, вызовет конкуренцию на рынке генеративного ИИ, способствуя инновациям и стимулируя дальнейшее развитие практики ответственного ИИ.

Вы нашли ошибку или неточность?

Мы учтем ваши комментарии как можно скорее.