El surgimiento de la Inteligencia Artificial (AI) ha llevado a aplicaciones que ahora están teniendo un impacto profundo en nuestras vidas. Esta es una tecnología que apenas tiene 60 años. De hecho, el término AI fue acuñado por primera vez en la conferencia de Dartmouth en 1956 . Este fue un momento en que los primeros ordenadores digitales comenzaban a aparecer en los laboratorios universitarios. Los participantes en esta conferencia fueron predominantemente matemáticos e informáticos, muchos de los cuales estaban interesados en probar teoremas y algoritmos que podrían ser probados en estas máquinas. Hubo mucho optimismo en esta conferencia, ya que se les había dado cierto aliento de los éxitos iniciales en este campo. Esto llevó a las predicciones eufóricas sobre AI que fueron overhyped. El pensamiento en ese momento era que si las computadoras pudieran resolver problemas que los humanos encuentran difíciles, como la demostración de teoremas matemáticos, entonces debería ser posible obtener ordenadores para resolver problemas fáciles para nosotros. Sin embargo, no resultó ser el caso. La razón por la cual el optimismo optimista prevaleció en este momento es que los problemas que los humanos encuentran difíciles pueden resultar fáciles para las computadoras y viceversa. Tal vez esto no fue sorprendente, porque las computadoras trabajan en el lenguaje de la lógica matemática y por lo tanto, se podría esperar un desempeño mejor que los humanos en problemas de lógica precisa.
Durante los siguientes cincuenta años, el progreso ha sido a veces errático e impredecible, porque IA es un campo multidisciplinario que no está (en la actualidad) sustentado por teorías fuertes. Los paradigmas y técnicas de software de IA han surgido de las teorías de Ciencia Cognitiva, Psicología, Lógica , etc., pero no habían madurado lo suficiente, en parte debido al fundamento experimental sobre el que se basaban y en parte al hardware inadecuado. Los programas I requieren hardware más potente en velocidad de operación y memoria que el software convencional. Además, la aparición de otras tecnologías -como la Internet- ha influido en la evolución de los sistemas de IA. Hace treinta años, se suponía que los sistemas de AI se convertirían en sistemas autónomos, como robots o sistemas expertos. Pero la mayoría de las aplicaciones de AI actuales combinan tecnologías. Por ejemplo, las aplicaciones de búsqueda de rutas, como las utilizadas en los dispositivos de navegación por carretera SatNav, combinarían la tecnología de navegación por satélite con la lógica de IA. A un nivel más avanzado, los autos sin conductor – combinan las redes neuronales profundas de AI, con la tecnología del Sistema de Posicionamiento Global y la tecnología de visión avanzada. En otras aplicaciones como el programa de traducción de Google, llamado Google Translate, las técnicas de aprendizaje automático (redes neuronales profundas) se combinan con grandes bases de datos y tecnologías de Internet.
El enfoque cambiante de la investigación de la IA
La primera fase se desencadenó durante la Conferencia de Dartmouth y se centró en las técnicas de resolución de problemas generales (GPS) (Newell y Simon 1971). Este enfoque supuso que cualquier problema que podría escribirse en el código de programa – ya sea la demostración del teorema matemático, juego de ajedrez, o encontrar la distancia más corta de una ciudad a otra – podría ser resuelto. Tales problemas implicarían normalmente la representación de este conocimiento en formato legible por ordenador y luego buscar a través de posibles estados hasta que se encuentre una solución. Por ejemplo, en el juego de ajedrez habría una representación simbólica del tablero, las piezas, los movimientos posibles, y los mejores movimientos basados en la heurística de los torneos anteriores, y así sucesivamente. Durante un juego, la búsqueda encontraría la mejor jugada. Sin embargo, a pesar de mostrar buena promesa inicialmente, el enfoque GPS se ejecuta de vapor bastante rápidamente. La razón principal es que el número de combinaciones de búsqueda aumenta exponencialmente a medida que los problemas aumentan de tamaño. Por lo tanto, la segunda fase de la investigación buscó maneras de facilitar la búsqueda – para reducir o podar el espacio de búsqueda, y también formas de representar el conocimiento en la IA. Hubo algunos éxitos de investigación de AI durante este período. Los más notables fueron Shrdlu (Winnograd 1972) y Shakey el robot .
Sin embargo, AI estaba a punto de dar un paso atrás cuando el informe Lighthill , publicado en el Reino Unido en 1973, fue muy negativo sobre los beneficios prácticos de la IA. Hubo recelos similares sobre la IA en los Estados Unidos y el resto del mundo. Sin embargo, reconociendo los posibles beneficios de la IA, los japoneses le dieron un nuevo impulso a la vida en 1982 con el anuncio de un proyecto masivo llamado el proyecto de Sistemas Informáticos de la Quinta Generación (FGCS) . Este proyecto fue muy extenso tanto en hardware como en software que incluía entornos de software inteligente y procesamiento paralelo de 5 ª generación, entre otras cosas. Este proyecto sirvió de catalizador para el interés por la IA en el resto del mundo. En EE. UU., Europa y el Reino Unido hubo un movimiento hacia la construcción de sistemas inteligentes basados en el conocimiento (IKBS) – tales sistemas también se llamaban sistemas expertos. El catalizador de esta actividad en el Reino Unido fue el proyecto ALVEY . Este fue un gran proyecto colaborativo financiado por el gobierno del Reino Unido y la industria y el comercio que examinó la viabilidad de utilizar IKBS en más de 200 sistemas de demostración.