A pesar de su potencial para reducir costos, DeepSeek, un modelo chino de IA generativa, está siendo recibido con cautela en Singapur debido a preocupaciones sobre la seguridad de los datos y los sesgos de la IA.
Las grandes empresas, incluidas las instituciones bancarias, las consultoras y las empresas de ciberseguridad, han implementado reglas estrictas que prohíben a sus empleados utilizar DeepSeek para el trabajo sin una debida diligencia exhaustiva.
El modelo R1 de DeepSeek, lanzado en enero, afirma rivalizar con la tecnología de OpenAI a una fracción del costo, despertando interés y preocupaciones sobre la competencia en el mercado de la IA generativa.
Si bien DeepSeek promete reducciones de costos en infraestructura y recursos informáticos, los expertos advierten sobre los riesgos potenciales relacionados con la retención de datos, las fugas de datos corporativos y los sesgos de la IA.
Las primeras pruebas indican que DeepSeek no cumple con los estándares de IA responsable, lo que genera preocupaciones sobre la censura y la privacidad de los datos.
Corea del Sur, Italia y Australia han bloqueado el acceso a DeepSeek en dispositivos gubernamentales debido a preocupaciones de seguridad, lo que recuerda restricciones similares impuestas a ChatGPT en sus inicios.
Los bufetes de abogados en Singapur están adoptando un enfoque cauteloso, prohibiendo el uso de DeepSeek para manejar datos de clientes hasta que su seguridad se evalúe a fondo.
Sin embargo, algunas empresas han comenzado a experimentar con DeepSeek para tareas como la codificación y la atención al cliente, reconociendo su potencial para aumentar la productividad y la innovación.
El gobierno de Singapur aconseja a las empresas que evalúen DeepSeek por sus propios méritos y que evalúen los riesgos de uso, incluido el cumplimiento de las leyes pertinentes.
Se espera que la entrada de DeepSeek impulse la competencia en el mercado de la IA generativa, fomentando la innovación y promoviendo el desarrollo de prácticas responsables de la IA.