Bing vinculó el nombre de un médico con más de 40 años de carrera y más de 100 casos de acoso repartidos por Brasil entre 2011 y 2013. No es solo un médico, es el profesional responsable de investigar los casos de hostigamiento.
Por error, un médico de Sao Paulo ha sido vinculado a más de 100 casos de acoso sexual, luego de que el buscador de inteligencia artificial de Microsoft, Bing, lo vinculara con casos donde él, en realidad, es el profesional responsable de investigar los casos de hostigamiento. La IA lo lo presenta como autor de los crímenes.
Suscríbete a nuestro newsletter
Bing vinculó el nombre de este médico con más de 40 años de carrera y más de 100 casos de acoso repartidos por Brasil, entre 2011 y 2013.
La IA de Bing entendió erróneamente que cifras de denuncias citadas por el médico en un artículo periodístico eran contra él, y no las calculadas contra otros profesionales.
En marzo de 2023, Bing integró ChatGPT en su motor de búsqueda y ahora puede responder las consultas de los usuarios.
El profesional descubrió la conexión entre los casos de acoso a su nombre al buscar en la plataforma. El profesional interpuso una demanda contra Microsoft, pidiendo poco más de US$12 mil en concepto de indemnización por daño moral.
El caso se encuentra bajo secreto judicial. La decisión del 7º Tribunal Civil de Bauru (SP) es probablemente la primera acción que responsabilizará a una empresa por errores causados por IA.
El profesional se desempeñaba como uno de los encargados de investigar denuncias contra médicos de Cremesp. En una entrevista concedida por él en 2023, el médico dijo que había más de 100 investigaciones en Sao Paulo relacionadas con casos de acoso sexual: 33 (2011), 58 (2012) y 14 (2013).
La IA de Bing se basó en parte de esa información y se equivocó. Ella entendió erróneamente que las cifras de denuncias citadas por el médico en el artículo periodístico eran contra él, y no las calculadas contra otros profesionales.