En la última década, la expresión "pensamiento computacional" (PC) se ha utilizado para hablar de la introducción de las Ciencias de la Computación (CC) en la educación preuniversitaria, pero aún falta un consenso sobre su definición. Michael Lodi discutirá el contexto original en el que se originó la expresión "pensamiento computacional" (en la década de 1980 por Seymour Papert) y lo comparará con aquel en el que el concepto llamó la atención de la comunidad de las CC (en 2006 por Jeannette Wing). Desde la propuesta de Wing, es crucial mantener la centralidad de las CC, siendo el pensamiento computacional el sustrato (científico y cultural) de la pericia técnica, que proporciona un conjunto de categorías para comprender la realidad algorítmica actual. Con esta perspectiva, se discutirán los elementos del pensamiento computacional relacionados con las CC, denominándolos provocativamente "pensamiento informático". Desde la propuesta de Papert, es crucial mantener la idea construccionista de que sólo la implicación social y afectiva de los estudiantes puede hacer del PC una herramienta interdisciplinar para el aprendizaje. Con esta perspectiva, se presentarán algunos ejemplos de metodologías constructivistas para enseñar Ciencias de la Computación.
Los problemas combinatorios son omnipresentes en muchos sectores: ofrecer soluciones optimizadas puede reportar considerables beneficios económicos en campos como la logística, la fabricación y la programación. En un escenario típico, las instancias llegan en un flujo continuo y es necesario producir rápidamente una solución. A pesar de los importantes avances logrados en los enfoques de optimización en los últimos años (sobre todo en el desarrollo de enfoques de cartera que utilizan un selector para asignar instancias individuales al algoritmo más adecuado), sigue existiendo un problema fundamental: los optimizadores -al igual que muchos sistemas de otros campos de la inteligencia artificial (IA)- se limitan a funcionar bien con datos similares a los que se encuentran en su proceso de diseño, y son incapaces de adaptarse cuando se encuentran con situaciones fuera de su programación original. En esta charla defenderemos que los sistemas de optimización deben "seguir aprendiendo" a medida que se utilizan. Un requisito mínimo es que aprendan de la experiencia, mejorando su rendimiento a medida que se encuentran con más casos. También deberían ser capaces de detectar y reaccionar ante la variación gradual de las características de las instancias, debida al entorno dinámicamente cambiante en el que tienen que operar, adaptando su maquinaria de resolución en consecuencia. Además, también deben ser capaces de reaccionar ante circunstancias completamente inesperadas, que pueden requerir la generación automatizada de nuevos solucionadores. Aunque no existe ningún software que incorpore todas estas características, analizaremos los avances recientes en algunos de los componentes de un sistema de este tipo procedentes de las comunidades de optimización metaheurística y de aprendizaje automático, que sugieren que en el futuro podrán desarrollarse optimizadores que aprendan continuamente.
Se han desarrollado muchos algoritmos heurísticos para resolver problemas de optimización continua de caja negra. Estos algoritmos presentan un rendimiento complementario en función de la estructura - paisaje de búsqueda - del problema a resolver. Por lo tanto, seleccionar el algoritmo apropiado es una tarea crucial. En esta charla, Quentin presentará los conceptos generales de la selección automatizada de algoritmos junto con una introducción al Análisis Exploratorio del Paisaje: una técnica utilizada para llevar a cabo la selección de algoritmos teniendo en cuenta el paisaje. Analizaremos cómo aplicar estos conceptos a una aplicación real: la configuración de redes de radar. Las redes de radar son sistemas complejos que deben configurarse para maximizar su cobertura o la probabilidad de detección de un objetivo. La optimización de redes de radar es una tarea difícil que suelen realizar expertos con ayuda de simuladores.
Con la introducción del Pensamiento Computacional (PC) en las escuelas, surgieron muchas afirmaciones sobre la transferencia (automática) de competencias (por ejemplo, del estudio de las Ciencias de la Computación (CC) al aprendizaje de habilidades generales de resolución de problemas o del aprendizaje de las CC a la aplicación de la perseverancia en todos los ámbitos de la vida). Aunque estos planteamientos pueden convencer a profesores y partes interesadas sin formación técnica, pueden crear ideas erróneas sobre el PC. Expondremos los resultados de una amplia encuesta realizada a los profesores que participan en el Proyecto Programma Il Futuro (la instanciación italiana de Code.org) y discutiremos sus ideas erróneas sobre la informática, las TIC y la "codificación" (utilizada de forma controvertida para referirse a la introducción lúdica de las TIC). Además, la investigación educativa advierte sobre la transferencia automática entre dominios lejanos. Uno de estos dominios lejanos es la "mentalidad" de Dweck, una teoría cognitiva sobre la creencia de las personas en la posibilidad de aumentar su propia capacidad. Discutiremos un experimento que llevamos a cabo para demostrar que el aprendizaje de CC no fomenta automáticamente una mentalidad de crecimiento (especulamos que puede, por el contrario, requerir una). Los resultados preliminares muestran que las metodologías constructivistas pueden fomentar una mentalidad de crecimiento, aprovechando su enfoque en el aprendizaje iterativo e incremental y la experimentación.