Google quiere que aportes imágenes para conseguir una IA más inclusiva
¿Qué pasa si a un modelo de Machine Learning solo le aportamos datos sesgados para una localización concreta? Este es un problema en el que el equipo de Google ha reparado al pensar en modelos de Machine Learning que solo se nutren de un contenido concreto, haciendo así que los resultados obtenidos al llevar este modelo a otra región sean erróneos. ¿Qué es lo que Google propone? Un modelo más inclusivo.
A la hora de crear un modelo de Machine Learning obtener los datos que usaremos para entrenar a nuestros algoritmos es fundamental. Si por ejemplo queremos detectar los elementos que nos rodean en nuestra casa, es posible que dichos elementos no sean iguales para una persona que viva en la India y otra que viva en España. Si no tenemos en cuenta esta variación, el resultado que obtengamos no será válido en todas las situaciones.
La visión colaborativa de Google.
Para luchar contra el problema que hemos descrito, Google ha creado Open Images Extended, una base de datos que ya cuenta con más de 478.000 imágenes aportadas por personas de todo el mundo. Esta base de datos se encuentra a disposición de los desarrolladores de todo el mundo para futuros proyectos.
En este caso, Google sigue una política similar a la de Google Maps, donde todos podemos subir nuestros comentarios o imágenes para mejorar la comunidad a la par que conseguir alguna que otra recompensa.
Si quieres participar, podremos aportar nuestro propio contenido para lograr así un resultado inclusivo a esta base de datos. Para ello Google nos anima a donar imágenes de lo que nos rodea haciendo uso de la aplicación “Colaboraciones” que Google tiene en el Google Play. De esta forma las imágenes que aportemos pasan a estar disponibles de forma gratuita para otros desarrolladores.