Malgré son potentiel de réduction des coûts, DeepSeek, un modèle d'IA générative chinois, est accueilli avec prudence à Singapour en raison de préoccupations concernant la sécurité des données et les biais de l'IA.
Les grandes entreprises, notamment les banques, les cabinets de conseil et les entreprises de cybersécurité, ont mis en place des règles strictes interdisant à leurs employés d'utiliser DeepSeek pour le travail sans une diligence raisonnable approfondie.
Le modèle R1 de DeepSeek, lancé en janvier, affirme rivaliser avec la technologie d'OpenAI à une fraction du coût, suscitant l'intérêt et des inquiétudes quant à la concurrence sur le marché de l'IA générative.
Alors que DeepSeek promet des réductions de coûts en matière d'infrastructure et de ressources informatiques, les experts mettent en garde contre les risques potentiels liés à la conservation des données, aux fuites de données d'entreprise et aux biais de l'IA.
Les premiers tests indiquent que DeepSeek ne répond pas aux normes d'IA responsable, soulevant des inquiétudes quant à la censure et à la confidentialité des données.
La Corée du Sud, l'Italie et l'Australie ont bloqué l'accès à DeepSeek sur les appareils gouvernementaux en raison de préoccupations de sécurité, ce qui rappelle des restrictions similaires imposées à ChatGPT à ses débuts.
Les cabinets d'avocats à Singapour adoptent une approche prudente, interdisant l'utilisation de DeepSeek pour la gestion des données des clients jusqu'à ce que sa sécurité soit soigneusement évaluée.
Cependant, certaines entreprises ont commencé à expérimenter DeepSeek pour des tâches telles que le codage et le support client, reconnaissant son potentiel de gains de productivité et d'innovation.
Le gouvernement singapourien conseille aux entreprises d'évaluer DeepSeek sur ses propres mérites et d'évaluer les risques d'utilisation, y compris le respect des lois pertinentes.
L'arrivée de DeepSeek devrait stimuler la concurrence sur le marché de l'IA générative, favorisant l'innovation et poussant au développement de pratiques d'IA responsables.