Traductor

miércoles, 30 de marzo de 2016

El chatbot ‘racista’ de Microsoft volvió a la vida por pocos minutos

Tay experimenta su regreso con cortas apariciones en línea.

Tay experimenta su regreso con cortas apariciones en línea.

La semana pasada, Microsoft se vio en aprietos cuando uno de sus experimentos de inteligencia artificial no le salió como esperaba. Se trataba de Tay, un bot que hablaba con cualquier persona a través de Twitter y respondía cualquier tipo de pregunta, simulando tener una conversación natural entre dos personas. Lo que parecía una idea innovadora resultó convirtiéndose en un episodio vergonzoso, pues Tay terminó haciendo comentarios racistas, machistas y muy ofensivos.

Continúa leyendo en ENTER.CO


Deja un comentario en El chatbot ‘racista’ de Microsoft volvió a la vida por pocos minutos, 2016 ENTER.CO



via ENTER.CO http://ift.tt/1Rr6zHm

No hay comentarios:

Publicar un comentario