Google se encuentra nuevamente en el centro de la controversia por un error en su servicio de IA Gemini, que generó imágenes de soldados nazis con diferentes etnias.

La compañía ha sido criticada por lanzar productos de IA antes de que se prueben adecuadamente. Hace un año, Google se disculpó después de que su chatbot Bard respondiera incorrectamente una pregunta básica sobre astronomía.

Este nuevo error pone en duda la capacidad de Google para desarrollar y lanzar productos de IA responsables y libres de sesgos. La compañía ha prometido solucionar los problemas con Gemini y volver a lanzarlo con una versión mejorada.

Sin embargo, este incidente ha generado dudas sobre el futuro de la IA y la necesidad de una mayor regulación en este campo. Las empresas tecnológicas deben tomar medidas para garantizar que sus productos de IA sean éticos y responsables, y no perpetúen sesgos o discriminación.

Leave a Reply

Your email address will not be published. Required fields are marked *