Siete lecciones clave sobre la inteligencia artificial y su impacto en la humanidad
La inteligencia artificial ha logrado en los últimos años lo que parecía imposible durante décadas: las máquinas ahora pueden leer, escribir, programar y razonar. ChatGPT, Gemini y Claude manejan el lenguaje con fluidez, escriben código, describen imágenes y traducen a nivel humano. Otros modelos generan imágenes realistas, predicen huracanes y conducen vehículos.
El investigador François Chollet lo resume: «En la última década, el aprendizaje profundo ha logrado una revolución tecnológica». Este avance se debe a la convergencia de tres elementos: algoritmos, cómputo y datos masivos. En 2012, la red neuronal AlexNet demostró que esta fórmula funcionaba.
–

Las principales lecciones:
Las máquinas aprenden de ejemplos en lugar de seguir reglas programadas. Los grandes modelos de lenguaje se entrenan prediciendo la siguiente palabra, un proceso simple que genera capacidades complejas de manera emergente.
Este aprendizaje se asemeja a la evolución: millones de ajustes mínimos acumulados. El investigador Andrej Karpathy lo describe como una «evolución cutre» que crea conocimiento e inteligencia.
–

La IA actual funciona más por intuición que por razonamiento lógico, similar al «Sistema 1» del pensamiento humano descrito por Daniel Kahneman. Los modelos más recientes incorporan capacidades de razonamiento paso a paso para superar esta limitación.
Los expertos debaten si esto es verdadera inteligencia o automatización cognitiva. François Chollet señala que los modelos actuales carecen de autonomía para enfrentar lo desconocido, mientras que Blaise Agüera y Arcas considera que demuestran inteligencia real, comparable a otras formas en la naturaleza.
El investigador en Microsoft AI Carlos Riquelme destaca el poder de la escala: «Al escalar un método muy sencillo con gran cantidad de datos terminó resultando evidente que se podía replicar en buena parte la capacidad lingüística del ser humano».
–

Las IA actuales tienen limitaciones profundas, según Karpathy: «Carecen de suficiente inteligencia, multimodalidad y aprendizaje continuo. Llevará una década resolver esos problemas». Sin embargo, vivimos una explosión de enfoques novedosos, con laboratorios explorando desde sistemas adaptativos hasta modelos que descifran el mundo físico.
El debate sobre los límites permanece abierto. Agüera y Arcas argumenta que si los cerebros humanos son circuitería, pueden modelarse computacionalmente. Sea cual sea el futuro, los algoritmos ya han aprendido habilidades que fueron exclusivas de seres vivos durante 300.000 años.
–
–
Fuente: Primicias
Exprésate Morona Santiago
Primer Medio de Comunicación Digital de la Provincia
Macas – Ecuador
