La Revista Digital de El Economista del País Vasco ha publicado en su edición del 17 de octubre un artículo de Germán Garitaonaindia, Socio del Área de Data Analytics en PKF Attest:

“El otro día me decía Josemi, un compañero de trabajo, “sois unos brujos”; lo hacía en referencia a nuestra unidad de Data Analytics porque nos oía contar cómo las máquinas son capaces de aprender a partir de datos históricos, y le parecía magia.

Vivimos una época fascinante, en la que el desarrollo tecnológico ha alcanzado cotas increíbles que permiten abordar proyectos hasta ahora inalcanzables. Gran parte de la culpa de esta revolución viene de la mano de lo que se denomina inteligencia artificial.

Hace muchos años que se acuñó este término para una rama de las ciencias de la computación que lo que persigue es que las máquinas imiten el comportamiento humano. De hecho, sus orígenes se remontan a la década de los años cuarenta del siglo pasado, cuando se intentó conceptualizar por primera vez una neurona artificial que imitara el comportamiento de las que tenemos en el cerebro.

Lo cierto es que estamos en un momento equivalente al inicio de la revolución que creó Internet. Se dan los condicionantes para que, tras muchos años de invierno, el desarrollo de la inteligencia artificial en toda su plenitud sea un hecho: mayor poder de computación, almacenamiento de datos más barato y desarrollo de software libre al alcance de cualquiera.

Conceptos como el machine learning y el deep learning son subconjuntos de la inteligencia artificial.

En el primero de ellos, básicamente lo que se persigue es que la máquina encuentre un patrón determinado en un histórico de datos -por ejemplo, la curva de demanda energética- con objeto de hacer predicciones; es decir, trata de aprender del pasado para predecir el futuro teniendo en cuenta las variables -y sus valores históricos- que afectan a aquello que se quiere predecir -en el caso de la demanda energética, la meteorología sería una de las variables significativas-.

En el segundo de los casos, deep learning, el objetivo es el mismo; sin embargo, es la propia máquina la que identifica cuáles son las variables/características que le interesan para realizar una predicción; el motivo no es otro que el número de variables que intervienen es tan alto que, hacer una extracción de las que explican aquello que se quiere predecir, es inviable.

Y ¿dónde sucede este fenómeno? Un claro ejemplo son las imágenes. Si a la máquina se le enseñan fotos de animales, indicando qué es cada una, ésta es capaz de extraer lo característico de las mismas para poder aprender qué animal es e identificarlo a partir de una nueva foto.

La visión artificial, cuyos fundamentos se suelen mezclar con los del deep learning, por el contrario, necesita que se le indique qué es lo que tiene que mirar para poder identificarlo; por ejemplo, distancia entre ojos, altura de las orejas, anchura de la nariz, y un largo etc. De ahí que el salto cualitativo en la identificación de objetos y personas haya sido espectacular.

En el caso del deep learning, las posibles aplicaciones son innumerables: seguridad, apoyo al diagnóstico en base a imágenes de radiografías, vehículo autoguiado, tráfico, detección de fallos en líneas de producción, etc.

Sin embargo, como se viene haciendo a lo largo de la historia, su uso también puede ser negativo; aunque resulte sorprendente, y gracias a esta disciplina, una máquina es capaz de generar noticias dándole únicamente un título -seguro que las fake news no es un término desconocido-.

Y lo hace con el mismo fundamento teórico, aprendiendo de un histórico de noticias publicadas para generar (predecir) una nueva. Y no se queda aquí… También es capaz de sustituir caras con una calidad asombrosa en un vídeo de un discurso, por ejemplo, porque la máquina, nuevamente, es capaz de aprender los gestos del conferenciante real y del fake e intercambiarlos respetando el tono del discurso.

Por supuesto, y como ocurre con las tecnologías que basan su aprendizaje en datos históricos, si éstos no tienen la calidad suficiente o incorporan mucho ruido, la máquina no será capaz de aprender de una forma tal que resuelva un problema determinado de forma.

Toda esta funcionalidad, aunque parezca ciencia ficción, está completamente accesible a todo aquel que sepa utilizarla y que cuente con la base de datos de imágenes necesaria para enseñar a la máquina -en el caso de que sean proyectos no desarrollados-.

A medida que exista talento formado en estas disciplinas, mayor será su nivel de penetración en nuestro día a día, a nivel personal y empresarial.

La interacción del ser humano con esta nueva realidad, la ética en el uso de los datos, la privacidad, etc., son reflexiones ineludibles que hay que abordar y que, dependiendo de su resultado, el avance será desigual entre unos territorios y otros, lo que puede conducir a una nueva brecha digital que afecte a la competitividad de las empresas.

No podemos olvidarnos que la base de estas tecnologías son los datos históricos, y en el caso de las imágenes, la defensa de la privacidad está de alguna manera reñida con las capacidades que se nos ofrecen, fundamentalmente en el ámbito de la seguridad.

A pesar de los recelos que suscita el uso de este tipo de tecnologías, la capacidad de generar ventajas competitivas en nuestras empresas es tremenda, y su aplicación no es más que el reflejo del propio ser humano.

La máquina no hace magia, sino que aprende de lo que se le enseña. Si lo que le enseñamos tiene sesgo de raza, sexo, etc., la máquina se comportará de la misma manera. Es como un niño, y es nuestra responsabilidad educarlos adecuadamente para que el mundo en el que vivimos sea aún mejor (ejemplo).”

 

Si quieres saber más sobre nuestros servicios de Data Analytics visita nuestra sección >>

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies ACEPTAR

Aviso de cookies