Una idea nacida a mediados del siglo XX. » La aparición de los ordenadores, en los años 1940-1950, parece hacer posible el sueño de la inteligencia artificial».
Originalmente, el matemático Norbert Wiener lanzó la cibernética en la década de 1940, que definió como la ciencia del funcionamiento de la mente humana. Quiere modelar la mente como una caja negra, pero no lo consigue. Luego, los investigadores se alejan de la mente para concentrarse en las neuronas. Y ahí es donde comienza un burbujeo de ideas.
John McCarthy nació el 4 de septiembre de 1927 en Boston y murió el 24 de octubre de 2011. Es uno de los dos pioneros de la inteligencia artificial. Encarna la corriente enfatizando la lógica simbólica.
Tabla de contenidos
Marvin Lee Minsky, uno de los pioneros de la inteligencia artificial
En cuanto a Marvin Lee Minsky, nació justo antes, el 9 de agosto de 1927 y murió el 24 de enero de 2016. Es el cofundador, junto con John McCarthy del Grupo de Inteligencia Artificial del Instituto de Tecnología de Massachusetts (MIT). Trabajó en el campo de las ciencias cognitivas y la inteligencia artificial.
En la década de 1940 surgieron dos enfoques de la IA, la inteligencia artificial: el conexionismo y el cognitivismo .
El conexionismo es apoyado por dos neurólogos, Warren McCulloch y Walter Pitts, quienes proponen reproducir en una máquina el funcionamiento interno del cerebro humano. Inventaron la neurona formal, el primer modelo matemático de la neurona.
El neuropsicólogo Donald Hebb por su parte, en 1949, creó una regla que permitía dotar a las neuronas formales de capacidad de aprendizaje. El cognitivismo, considera que el pensamiento puede describirse en un nivel abstracto como manipulación de símbolos, independientemente del soporte material de esta manipulación. Un enfoque que establece un vínculo entre pensamiento y lenguaje, como un sistema de símbolos.
Por tanto, desea desarrollar la traducción automática en computadora. En medio de la Guerra Fría, la traducción automática del ruso al inglés, o viceversa, es un gran problema.
La prueba de Turing
En octubre de 1950, el matemático británico Alan Turing firmó uno de sus artículos más famosos, bajo el título «Máquinas informáticas e inteligencia». Este texto fundacional y visionario comienza con estas palabras:
Propongo reflexionar sobre la pregunta: ¿pueden pensar las máquinas?
El que había logrado, precisamente gracias a una máquina, descifrar los códigos secretos de los nazis, esta vez presenta un juego llamado imitación. En la época de las primeras computadoras que la prensa bautizó como «cerebros electrónicos», nació una prueba. Pasará a la historia, llevando su nombre.
En 1951, el matemático estadounidense Marvin Minsky creó una máquina, la SNARC (Calculadora de refuerzo analógico neuronal estocástico), el primer simulador de redes neuronales, que simula el comportamiento de una rata que aprende a moverse en un laberinto.
La aparición del término «inteligencia artificial»
La expresión Inteligencia artificial como tal apareció en 1956 . Varios investigadores estadounidenses, entre ellos John McCarthy y Marvin Minsky, muy avanzados en investigaciones que utilizan computadoras para algo más que cálculos científicos, se reunieron en la universidad de Dartmouth, en New-Hampshire, en Estados Unidos. Su proyecto era desarrollar la inteligencia artificial. El término se adaptaba bien a la metáfora de los «cerebros electrónicos» y retomaba el proyecto cibernético de casar el estudio del cerebro con el de las máquinas.
De este taller sobre máquinas pensantes surge una expresión, la de uno de estos investigadores, John McCarthy , que habla por primera vez sobre inteligencia artificial.
Este término se impuso de inmediato, dice Pierre Mounier-Kuhn. Fue lo suficientemente sorprendente, paradójico y ambiguo como para atraer a mucha gente. Describió bien los proyectos de estos expertos, habló con el público y permitió formular un montón de promesas y así atraer créditos.
1957: el perceptrón
El psicólogo estadounidense Frank Rosenblatt inventa una máquina que se aprende a reconocer las letras del alfabeto escritas en una hoja. El perceptrón funciona a través de sensores y un programa de computadora que imita el funcionamiento del cerebro humano. Este programa se llama red neuronal artificial.
Tres años después del seminario de Dartmouth, los dos padres de la inteligencia artificial, McCarthy y Minsky, fundaron el laboratorio de inteligencia artificial en el Instituto de Tecnología de Massachusetts (MIT).
El movimiento se está extendiendo gradualmente a Gran Bretaña y Francia, y al resto de países donde se están comenzando a utilizar computadoras. » En Francia, detalla el investigador, en 1959, un laboratorio,» el centro para el estudio de la traducción automática «se ha creado y cofinanciado por el CNRS, el ejército y la Universidad de Grenoble» .
Inviernos de IA
Pero la historia de la inteligencia artificial no es lineal. Su desarrollo depende principalmente de los créditos que se le asignen, modas y fluctuaciones financieras. “ Con fases de gran entusiasmo, donde los investigadores acuden en masa y los fondos cebados por promesas , explica Pierre Mounier-Kuhn, y luego, después de unos años, nos desilusionamos, se alternan con fases de desilusión tanto más agudas cuanto más exageradas son las ilusiones. las organizaciones que financian la investigación están cerrando el grifo de la inteligencia artificial «. Esto no solo concierne a la financiación pública sino también a las grandes empresas. El historiador y otros estudiosos lo llaman el «invierno de la inteligencia artificial».
A mediados de la década de 1960, la IA experimentó su primer invierno. Las promesas de las traducciones automáticas masivas no se materializan. «Los lingüistas han elaborado informes sangrientos «, añade el investigador, y explica que la traducción de idiomas no es solo un problema con algoritmos bien diseñados, sino que hay que entender qué es un idioma, por lo que hay que investigar antes de la lingüística teórica. detuvo la traducción automática, los créditos se agotaron. Pero indirectamente esto unió a la lingüística y la ciencia en plena confusión, que buscaba modelos en álgebra, con científicos informáticos que querían teorizar lenguajes de programación. Este acercamiento dio origen a la informática teórica. «
Otra promesa incumplida: en 1958, dos investigadores prometieron una computadora capaz de vencer al campeón mundial de ajedrez en menos de diez años. Esta computadora de IBM pudo hacerlo, pero solo sucedió a mediados de la década de 1990: en 1997, con Gary Kasparov contra el programa Deep Blue.
1966: ELIZA
El científico alemán Joseph Weizenbaum inventa ELIZA, la primera computadora capaz de entablar una conversación por escrito. ELIZA imita a una psicóloga. Ella le hace preguntas a su interlocutor y le pide que hable de él. Algunos humanos no se dan cuenta de que es una máquina.
En 1969, McCarthy y Minsky escribieron un libro conjunto: Perceptrons, » donde muestran los límites del aprendizaje automático, lo que frenará temporalmente la investigación en esta área.
Un nuevo invierno se produce a mediados de la década de 1970. » Esto también coincide con el final de la guerra en Vietnam, especifica Pierre Mounier-Kuhn, donde terminan los créditos, que tienen un aspecto militar» . En la década de 1980, los estadounidenses reinvirtieron en IA, en medio de la guerra entre Rusia y Afganistán. También fue en este momento cuando se desarrolló la idea de reemplazar al hombre por la máquina en ciertos oficios.
El punto de inflexión de la década de 2000
Después del estallido de la burbuja de Internet a principios de la década de 2000, la IA fue llevada por una nueva ola, que dura hasta hoy . En una nota reciente para Fondapol , Serge Soudoplatoff destaca notablemente «las grandes rupturas de 2011». Tres rupturas «casi concomitantes» (que) han permitido a la inteligencia artificial dar un gran paso adelante «:
- La introducción de una categoría de algoritmos mucho más sofisticados: redes neuronales convolucionales
- La llegada al mercado de procesadores gráficos de bajo costo capaces de realizar grandes cantidades de computación, la disponibilidad de bases de datos muy grandes correctamente anotadas que permiten un aprendizaje más fino.
- La «GAFAM», Google, Apple, Facebook, Amazon, Microsoft, se han impuesto a lo largo de los años. Google en particular, porque un buscador es inteligencia artificial por definición, » ya que sus algoritmos deben entender lo que el usuario busca, le gusta y podría comprar» , indica la investigadora del CNRS.
Otros recursos útiles: Historia resumida de la inteligencia artificial;Comprender la computación en la niebla en siete preguntas; cómo está cambiando la inteligencia artificial la industria del alojamiento web.
More from Tecnologia
Beneficios de la computación en la Nube para las empresas
Hoy en día, el centro de datos local de una empresa ya no existe o existen muy pocos. Por supuesto, …
Qué es Kali Linux
¿Qué es Kali Linux? Se trata de una excelente suite de seguridad informática. Sabemos que el ecosistema GNU / Linux …
¿Qué es Ubuntu?
¿Qué es Ubuntu? Para todos los entusiastas del software libre, Ubuntu es un sistema operativo muy conocido. Puede que hayas …