Como cada año desde 2014, IESE Business School presenta su Índice Cities in Motion y en la edición de 2020, presenta una peculiaridad histórica como consecuencia de la crisis sanitaria de la COVID-19, tal como sus autores indican:
«En el contexto actual de la COVID-19, este análisis adquiere aún más relevancia. Es ahora cuando se puede observar cuán preparadas están realmente las ciudades para hacer frente a una crisis que hace tambalear su estabilidad en muchas de sus dimensiones. Ha llegado el momento de ejercer una gobernanza inteligente que tenga en cuenta todos los factores y actores sociales, con una visión global.» (2020:11) IESE Business School – Índice IESE Cities in Motion 2020 / ST-542
Esta iniciativa tiene la misión de promover el Modelo de Ciudades en Movimiento, que incluye un enfoque innovador de gestión de la ciudad, y un nuevo modelo urbano para el siglo XXI, basado en 4 impulsores principales: ecosistemas sostenibles, actividades innovadoras, equidad entre ciudadanos y conectados territorio.
El índice que integra 9 dimensiones en un solo indicador (un total de 101 indicadores) y recoge 174 ciudades de todo el mundo. Gracias a esta visión amplia e integrada, permite identificar los puntos fuertes y débiles de cada una de ellas.
Como novedad, este año ofrecen en su página web una «Calculadora ICIM» que permite ingresar los datos de cualquier ciudad y, con base en ellos, muestra la posición que esa urbe ocuparía en el ranking. Se trata de una práctica herramienta de utilidad tanto para aquellas ciudades que ya están reflejadas en el ranking y desean ver los cambios que se producen con variables más actualizadas como para aquellas que no se encuentran en el ICIM pero desean conocer cuál sería su lugar en el ranking.
Cities in motion en España
El objetivo de este post es seleccionar una ciudad que disponga de suficientes datos abiertos de movilidad para futuros estudios, o para su incorporación futura a una plataforma de movilidad. Este post parte del Índice IESE Cities in Montion que, como ya hemos mencionado, establece un ranking de “ciudades inteligentes” según diferentes criterios o dimensiones a nivel mundial. Por este motivo, hemos querido extraer qué ciudades españolas aparecen en el ranking mundial; éstas son A Coruña, Barcelona, Bilbao, Madrid, Málaga, Murcia, Palma, Sevilla, Valencia y Zaragoza.
En ITELLIGENT, hemos realizado un breve estudio donde se ha intentado localizar, para cada ciudad española que aparece en el ICIM, los siguientes data sets relacionados con movilidad en tiempo real
¿Qué ciudad española posee una mayor índice de movilidad urbana?
De todas las ciudades analizadas en nuestro estudio, la que presenta un mejor acceso a los datos es Madrid. A título de ejemplo, algunos de estos recursos para Madrid son:
Respecto al resto de poblaciones españolas que aparecen en el ranking ICIM, teniendo en cuenta estos cuatros data sets, cabe indicar lo siguiente:
Como ya adelantamos en el post anterior «El Gobierno presenta la Estrategia Nacional de Inteligencia Artificial con una inversión de 600 millones», el Gobierno presentó los presupuestos para 2021-2025 destinados a la Inteligencia Artificial en base a la economía y sociedad española. De manera general, el plan tiene como objetivo dar asistencia a al menos 1.350.000 pequeñas y medianas empresas, «según la situación, y según la intensidad de ayuda determinada, puede aumentar hasta 1,5 millones». Esto representa la mitad de los 2,87 millones de empresas españolas con menos de 250 empleados. Además, tiene el propósito de mejorar la eficiencia de las Administraciones Públicas en su conjunto, garantizando la sostenibilidad de las inversiones mediante el refuerzo y reutilización de medios y servicios compartidos, generando por tanto una serie de sinergias y ahorros de costes muy significativos.
La Oficina Técnica será la encargada de coordinar y evaluar 14 planes, incluida la asistencia a empresas que se distribuirá entre el Ministerio de Economía y el Ministerio de Transformación Digital (87,1% de estos fondos) y el Ministerio de Industria, Comercio y Turismo. El 12,9% restante, o 600 millones de euros, se gestionará en cada una de las principales áreas.
Este es el enfoque del plan y el eje digital básico de las PYMES donde se han completado otros tres planes:
El segundo eje tiene tres planes, con una dotación global de 656 millones de euros, con la finalidad de mejorar las competencias y formación de los directivos y responsables de la transformación.
El tercer eje tiene como objetivo promover la creación de nuevas empresas y apoya el espíritu emprendedor de las empresas «disruptivas» e innovadoras a través de cuatro programas, dos del Ministerio de Economía y los otros dos del Ministerio de Industria. Su activo total es de 439 millones de euros.
El cuarto eje es de 443 millones, gestionado por el sector industrial, e incluye tres planes de digitalización sectorial, uno es el plan de digitalización de la industria de 38 millones, el otro es la industria turística de 80 millones y el otro es el plan de empresa comercial de 325 millones.
Además del plan para las pequeñas y medianas empresas, el gobierno también presentó otras dos propuestas: el Plan Nacional de Competencias Digitales con un presupuesto de 3.750 millones de euros, con la esperanza de dotar al 80% de la población de competencias digitales; y el Plan de Digitalización de las Administraciones Públicas con un presupuesto de 2.600 millones de euros.
A continuación, os dejamos los documentos con cada uno de los Planes:
Plan Nacional de Competencias Digitales
Década de los 50
Se considera 1950 como el año del nacimiento del PLN, cuando Alan Turing publica un artículo denominado “Machine and Intelligence”. Poniendo de relieve que una forma de medir la inteligencia seria a través de la capacidad de una máquina de responder preguntas de forma que un operador humano no distinguiera sus respuestas de las de un humano (Test de Turing).
Un énfasis inicial en la década de los 50s fue la traducción automática, en particular entre inglés y ruso, con objetivos militares. Una época de fuerte optimismo en las posibilidades del PLN.
En esa época uno de los sistemas desarrollados, al traducir un versículo del testamento (Mateos, 26:41) que dice: ‘the spirit is willing, but the flesh is weak’ (el espíritu es voluntarioso, pero la carne es débil) lo tradujo por ‘the vodka is agreeable, but the meat is spoiled’ (el vodka es agradable pero la carne esta podrida), estos tipos de errores fueron los que hicieron
Década de los 60 y 70
A principio de los 60s los sistemas desarrollados de Traducción Automática son evaluados con resultados muy limitados lo que paralizó su desarrollo futuro y en general supuso un baño de realidad para el sector del PLN.
Durante esta década Noam Chomsky (lingüista estadounidense) introduce la teoría formal del lenguaje y la sintaxis generativa. Esto dio un nuevo impulso al PLN, con la creación de nuevas aproximaciones basadas principalmente en reglas cuyo objetivo era generar lenguaje o parsear textos.
Desgraciadamente estos sistemas basados en reglas, se vieron pronto superados por la complejidad del lenguaje natural, así los sistemas requerían más y más reglas llegando a convertirse en inmanejables.
Se comenta que en esa época Fred Jelinek de IBM que trabajaba en los sistemas de PLN decía: “cada vez que un lingüista abandona el equipo el sistema mejora”, en referencia a las limitaciones de los modelos basados en reglas lingüísticas frente a los modelos basados en probabilidad y aprendizaje automático.
Década de los 80 y 90
Las limitaciones de los sistemas basados en reglas hacen que en esta década comiencen a tener cada vez más protagonismo los sistemas basados en probabilidad y aprendizaje automático (machine learning). Estos sistemas van reduciendo su dependencia de modelos lingüísticos y se basan cada vez más en datos (ej. conjuntos de textos denominados “corpus”).
Durante los 90s la aparición de internet, introduce la disponibilidad de un gran número de textos (html, pdfs,…) y audios, además de la necesidad de nuevas herramientas que sean capaces de poner en valor estos grandes repositorios de datos. Durante esta década se desarrollan los sistemas de búsqueda (ej. AltaVista y Yahoo) y a finales de los 90s aparece Google que supone un cambio de paradigma en los sistemas de búsqueda.
Década de los 2000
Las técnicas de Aprendizaje Automático (Machine Learning) van tomando cada vez más protagonismo. El éxito de empresas como Google, hacen que la Inteligencia Artificial y el PLN comiencen a popularizarse.
Durante la década del 2000s IBM desarrolla Watson, que en el 2011 derrota al juego del Jeopardy a dos expertos en dicho juego. Watson es un sistema diseñado para una tarea de PLN denominada Q&A (preguntas y respuestas), adaptado a las particularidades de Jeopardy y con capacidad de interactuar por voz con el presentador.
Década de los 2010
Las nuevas técnicas de Deep Learning (redes neuronales profundas) que a principios de la década están revolucionando el procesamiento de imágenes llegan al PLN. Apareciendo en el 2012 Word2Vec una técnica de “Word embedding” que permite representar las palabras de un texto como vectores, con unas propiedades muy interesantes. Word2vec representó la introducción de un nuevo paradigma en el PLN, que comienza a abordar con éxito tareas hasta entonces consideradas extremadamente complicadas.
En el 2018 Google presenta BERT, que es un modelo de Word embedding, que presenta mejoras sobre Word2vec, entre otras, su capacidad de representar mediante diferentes vectores palabras polisémicas.