La popular red social, Facebook, viene usando inteligencia artificial para facilitar la navegación de personas invidentes. La tecnología de texto alternativo automático (AAT en inglés) de Facebook recibió una actualización para ser más exacta al describir fotos.
La primera versión de AAT, hace cinco años, se desarrolló utilizando datos etiquetados por humanos, con los que se entrenó una red neuronal convolucional profunda utilizando millones de ejemplos de forma supervisada.
Asimismo, el modelo AAT completo pudo reconocer 100 conceptos comunes, como «árbol», «montaña» y «al aire libre».
Facebook utilizó en sus descripciones modelos de reconocimiento facial que identificaron a las personas (siempre que esas personas dieran su consentimiento explícito). Esto era posible porque muchos de sus usuarios comparten a menudo fotos de amigos y familiares.
A través de esta información se ofrecía de forma verbal una descripción exacta de los elementos reconocibles en la foto.
Es así que, Facebook sumó nuevos conceptos que pueden ser detectados e identificados en una imagen. Dicha actualización es, ahora, diez veces mayor que la base de datos inicial.
Con esto, la popular red social tiene sus descripciones más detalladas, informando sobre el tipo de actividad mostrada en la foto, incluyendo ubicaciones o paisajes.
De gran avance
Para alcanzar un avance tecnológico óptimo en su nueva versión, este modelo fue entrenado con millones de imágenes públicas de Instagram y hashtags. Asimismo, Los datos sumaron también fotos de zonas geográficas diferentes y traducciones de los hashtags.
«Los modelos actuales son más precisos e inclusivos de manera cultural y demográfica; por ejemplo, pueden identificar bodas en todo el mundo basándose (en parte) en ropa tradicional en lugar de etiquetar solo fotos con vestidos de novia blancos», señala Facebook en su blog oficial.
Actualmente, el algoritmo reconoce de manera confiable más de 1200 conceptos, más de 10 veces más que la versión del 2016.