Dos artículos interesantes, uno sobre "el problema de la caja negra" en la Inteligencia Artificial y otro sobre la globalización y cómo afectará también a los trabajadores de cuello blanco:
Google: El problema de la caja negra: por qué la inteligencia artificial es una amenaza. Blogs de Tribuna
Sin llegar a caer en el alarmismo, quiero resaltar una cuestión a la que no se suele prestar la atención debida en estos debates. Se trata de una dificultad asociada a las técnicas utilizadas por la inteligencia artificial y que es paradigmático de su diferencia con otras formas tradicionales de computación. Se le conoce como el problema de la caja negra.
Para ilustrarlo utilicemos un caso real sacado del proyecto del coche autónomo, que ha ganado gran notoriedad mediática gracias a las inversiones millonarias de compañías como Google, Tesla e incluso Uber. Un ingeniero ha estado trabajando durante varios años para crear un sistema de conducción autónoma gobernado por IA. Primero probó dicho sistema en la seguridad de su laboratorio, usando simulaciones, con posterioridad en el mundo real, pasando de caminos apenas transitados a carreteras públicas con mayor velocidad conforme aumentaba la robustez del sistema. Desde hace meses la conducción es suave, segura, impecable, diríase que casi mejor que la humana. Confiado por la ausencia de incidentes, decide transitar por nuevos paisajes, y cuando se acerca a un puente en la carretera, a la vera de un acantilado, nota un ligero desvío a la izquierda. Nada grave, algo que seguro que el sistema corregirá pronto. Pero no lo hace. El desvío se convierte en un decidido giro de volante, y con suerte puede reaccionar a tiempo para frenar el coche en seco antes de despeñarse.
El sistema de IA puede comportarse como una caja negra: sabemos qué ocurre al final pero no lo que sucede en el interior de las capas intermedias
Después de tomarse varias tilas y volver al laboratorio, el ingeniero - cuyo nombre real es Dean Pomerleau - investiga las posibles causas del accidente y llega a una conclusión sorprendente: al parecer la red neuronal que gobierna las actividades del sistema había aprendido utilizar la hierba de los márgenes del camino como una guía para orientarse, y se había quedado completamente confundida cuando esta desapareció en la vereda del puente. Literalmente, para habernos matado.
La idea básica de una red neuronal consiste en simular el comportamiento de un cerebro biológico mediante pequeñas unidades computacionales, las 'neuronas', dispuestas en capas conectadas mediante enlaces digitales, las 'sinapsis'. La primera capa de neuronas captura datos externos (por ejemplo, los píxeles de una foto de su mascota favorita) y distribuye dicha representación de los datos a la siguiente capa a través de los lazos sinápticos, que se refuerzan o debilitan siguiendo un proceso definido por reglas matemáticas. Las representaciones se van transformando según las neuronas propagan la información hacia adelante y, eventualmente, la capa superior nos proporciona una respuesta (por ejemplo, clasificando el animal como un perro o un gato). Este proceso, repetido miles de veces mediante un mecanismo de retroalimentación, permite a la red neuronal aprender las diferencias entre uno y otro para clasificar con mayor exactitud.
Imagen producida por la red neuronal de Google DeepDream.
El problema es que sabemos que ha clasificado el animal como un perro o un gato, pero no sabemos por qué. El conocimiento que se obtiene no queda en nuestras manos, sino que está codificado dentro de la propia red. Suponemos que las capas inferiores se encargan de reconocer figuras geométricas básicas, como líneas y ángulos, mientras que las capas superiores las agrupan para formar caras, orejas, rabos y otras figuras que le permiten, en última instancia dar un veredicto. Lo suponemos, pero no lo sabemos, porque es un proceso opaco para nosotros. Recuerde, a diferencia de los antiguos sistemas expertos, el humano no codifica las reglas, sino que el sistema las descubre por sí solo. Esa es precisamente la gracia, pero también implica que nos quedemos fuera del proceso. Que el sistema sea una caja negra en la que sabemos lo que se introduce, lo que se obtiene, pero no lo que sucede en el interior de las capas intermedias, conocidas como capas ocultas.
Es fácil vislumbrar por qué el problema de la caja negra puede llegar a convertirse en una preocupante amenaza en el futuro. Hasta hoy en día, el mayor escenario de riesgo al que se debía enfrentar un individuo que usaba un sistema adecuadamente testado era el de un 'hackeo', una disrupción externa. Los chinos robando secretos industriales de Google, la CIA desbaratando plantas de enriquecimiento de uranio en Irán o los rusos influyendo en el resultado de las elecciones americanas. Elija su teoría de la conspiración favorita. En cambio, con la inteligencia artificial nos encontramos con una situación sin precedentes en la que el sistema aprende, cambia en relación reflexiva con el entorno. Como no dictamos las reglas y no podemos testear un número infinito de escenarios, es posible que un sistema que ha respondido con total normalidad durante años de pronto, ante unos estímulos nuevos dentro de la caja negra, produzca resultados estrepitosamente erróneos e impredecibles, completamente fuera del sentido común. En términos humanos, que enloquezca.
Educación: La amenaza laboral que sufren los profesores de matemáticas (y pronto el resto). Noticias de Alma, Corazón, Vida
Lo que el presidente obvia es que la reconfiguración del mercado a nivel global no afecta únicamente a los conocidos como trabajos de cuello azul. Es más, es posible que estos puestos ya sean irrecuperables, por mucho que se intenten colocar nuevas barreras, y que la tendencia se lleve por delante a los empleados de cuello blanco. En el caso que nos ocupa, a los profesores; concretamente, de matemáticas.
Un artículo publicado en 'The Economist' lo anuncia: una investigación que será publicada en el próximo número del 'Journal of Human Resources' sugiere que pronto los profesores de matemáticas occidentales pueden tenerlo complicado a la hora de competir en el mercado laboral, especialmente en lo que concierne al universitario.
La investigación, realizada por George Borjas, de la Universidad de Harvard, y Kirk Doran y Ying Shen de la Universidad de Notre Dame encuentra un potencial enemigo en los profesores y estudiantes chinos, que desde la liberalización del país (en 1978) comenzaron a trabajar en destinos como EEUU aportando un conocimiento diferencial, puesto que es uno de los campos en los que sobresale. En apenas una década, China se había convertido en la principal fuente de estudiantes extranjeros en dicho país.
[...]
La competencia es global
En otras palabras, mientras que en un pasado no tan lejano el ámbito de determinadas publicaciones estaba limitado a territorios concretos y estaba delimitado por distintas barreras (laborales, idiomáticas, adminstrativas), la apertura de mercados ha provocado que el acceso de profesores de otras universidades a estas publicaciones se dispare. Según los datos que presenta dicha investigación, la relación entre el número de 'papers' publicado por los profesores de origen chino aumentaba a medida que decrecía el de los docentes americanos.
No es la primera vez que los investigadores llegan a una conclusión semejante. En 'Cognitive Mobility: Labor Market Responses to Supply Shocks in the Space of Ideas', analizaron cómo se había alterado el mundo de la investigación estadounidense en matemáticas tras la desaparición del bloque soviético. Los resultados fueron muy similares a los que ahora han localizado en China: determinadas áreas de investigación que habían sido explotadas en la URSS, como las ecuaciones diferenciales ordinarias y parciales o la teoría de cuantos, eran ocupadas por los rusos, mientras que los estadounidenses que hasta ese momento se encargaban de dichas disciplinas se vieron obligados a reciclarse.
¿Quién gana y quién pierde en este reparto económico? Como es previsible, los matemáticos de un nivel más alto, que compiten a un nivel global y cuyos trabajos tienen mayor impacto. Las principales víctimas son aquellos que, en otras condiciones, podrían haberse garantizado un mínimo de visibilidad, y que han sido desplazados por aquellos que les superan en determinados campos. Algo aún más sensible en campos universales como las matemáticas (o, por extensión, la ciencia en su conjunto), que no dependen del idioma, y donde países con una gran tradición científica que durante gran parte del siglo XX apenas migraron (China, URSS) han abierto sus fronteras.
[..]
Esta publicación también sugería la aparición de una hipotética nueva lengua para la comunicación universal, una “forma simplificada de inglés científico internacional” que ya se aplica en determinados campos. “La ley de la ventaja comparativa sugiere que la movilidad de los trabajadores animará a las sociedades a especializarse en lo que hacen mejor”, añadía el estudio.
Marcadores