FILE PHOTO: A Microsoft logo is seen in Los Angeles, California, U.S. June 14, 2016. REUTERS/Lucy Nicholson/File Photo

El jefe de Inteligencia Artificial de Microsoft, Mustafa Suleyman, afirmó que la compañía evitará desarrollar sistemas de IA que representen riesgos incontrolables o existenciales, en el marco de su estrategia de seguridad y uso responsable de esta tecnología.

Microsoft reafirmó su postura sobre el desarrollo responsable de inteligencia artificial avanzada a través de declaraciones de Mustafa Suleyman, responsable del área de IA de la compañía. El ejecutivo señaló que la empresa no avanzará con sistemas que puedan generar consecuencias graves o difíciles de controlar.

Según explicó Suleyman, la compañía evalúa de manera permanente los riesgos asociados a los modelos de IA de mayor capacidad, especialmente aquellos que podrían tener impactos amplios en la sociedad, la seguridad o la estabilidad de los sistemas digitales. En ese marco, aseguró que Microsoft está dispuesta a abandonar proyectos que no cumplan con sus criterios de seguridad.

Estas definiciones se alinean con la estrategia global de Microsoft en materia de inteligencia artificial, que incluye marcos internos de gobernanza, evaluación de riesgos y controles técnicos. La empresa continúa invirtiendo en el desarrollo de IA, pero bajo lineamientos que priorizan la responsabilidad, la seguridad y el cumplimiento de estándares éticos establecidos.