Saltar al contenido
Portada » Blog – Laprovittera Carlos » La Singularidad vista desde 2007

La Singularidad vista desde 2007

Este es un artículo que escribí en 2007. Que escribí con más dudas que certezas. Hoy lo encontré y me sorprende que, muy errado no estaba. Este articulo no tiene ninguna valides científica, fundamento en que me baso para decir lo que digo, pero no deja de ser simplemente algo que me sente a escribir aburrido.

¿Qué es la singularidad?

El mundo que conocemos está por cambiar de una forma tal que es muy difícil imaginar en qué se va a transformar. Los conceptos de transhumanismo y singularidad aún no son demasiado populares, pero aquello que postulan está cada vez más cerca. Las máquinas prometen ser tan inteligentes como las personas, la nanotecnología nos dará lo que queramos construyéndolo átomo a átomo y posiblemente la primera persona que viva 1000 años ya nació. Parece ciencia ficción, pero no lo es. La tecnología avanza de manera exponencial y los resultados de este progreso son sorprendentes.

Cosas que nos parecen imposibles se hacen posibles en pocos años y, unos años después, se hacen accesibles y masivas. Estamos mucho más cerca de lo que creemos del momento en que las máquinas piensen igual que los seres humanos. Pero también estamos cerca del momento en que podamos prolongar la vida hasta límites insospechados o indefinidamente. Esto, desde ya, abre un número inmenso de interrogantes de todo tipo, desde cuestiones demográficos y sociales hasta problemáticas psicológicas. Pero, más que nada, genera un interrogante crucial:

¿Quiénes se verán beneficiados por estos avances? ¿Serán únicamente los reamente merecedores por sus aportes al mundo? ¿O todos quienes puedan pagar lo necesario para someterse a los tratamientos? La singularidad tecnológica es un suceso que ocurrirá dentro de algunos años y por el cual habrá un aumento espectacular del progreso tecnológico debido al desarrollo de la inteligencia artificial (IA). Esto ocasionará cambios inimaginables a nivel social los cuales serán imposibles de comprender o predecir para cualquier ser humano anterior a dicho evento.

La denominación se adoptó como una analogía de la singularidad espacio-temporal de los agujeros negros, en donde la materia se comprime o colapsa en un punto, es decir en una región infinitamente pequeña o singular. Allí, las ecuaciones de la gravedad o de la densidad tienen una discontinuidad y toman valores indefinidamente grandes. En el caso de la singularidad tecnológica, lo que crece indefinidamente es, justamente, el desarrollo tecnológico, produciéndose un estallido de inteligencia. La denominación fue enunciada por primera vez por el científico y autor de ciencia ficción Vernor Vinge, durante los 80.

Lo que subyace detrás de esto es que el progreso de la tecnología no se produce de manera lineal sino exponencial. Esto puede ser verificado fácilmente por cualquier persona observando cómo evolucionan todas las capacidades de las computadoras. Una PC barata de hoy en día es más potente que la más poderosa de las supercomputadoras de hace unos años y, yendo más atrás en el tiempo, que la suma de la capacidad de procesamiento de todas las computadoras del mundo. Cualquiera conoce la rapidez con que se vuelven obsoletas las máquinas y todos sabemos que los discos de 1 o 2 terabytes eran impensables hace 10 años, cuando el estándar era de sólo algunos gigabytes.

Lo mismo sucede con la capacidad de los procesadores, la velocidad de las conexiones o la cantidad de memorias. El crecimiento lineal es más intuitivo para el ser humano y por eso tendemos a pensar y estimar de esa manera. Pero, dado que el progreso tecnológico es exponencial, se produce un desfasaje entre cómo suceden las cosas y cómo las prevemos. Por ejemplo, si en un determinado momento los discos estándar son de 1 TB y pasado un cierto período de tiempo pasan a ser de 2 TB, cuando vuelva a pasar ese tiempo no serán de 3 TB (crecimiento lineal) sino de 4 TB (crecimiento exponencial) y después de un nuevo período serán de 8 TB.

Una estimación razonable es que la capacidad de los discos se duplica cada 2 años. A pesar de que nuestro cerebro con pensamiento lineal intuya otra cosa, muy pronto la inteligencia artificial alcanzará el nivel de la inteligencia humana. Esto ocurrirá durante la década de 2020. Estas IAs podrán construir IAs aún más inteligentes que a su vez podrán hacer otras más inteligentes aún y así sucesivamente. Todo esto suena a ciencia ficción, pero parece más certero cuando notamos todos los cambios que se produjeron en las últimas décadas.

Hace algo más de 100 años, para el común de la gente, volar en un avión o transmitir imágenes a distancia para reproducirlas en un aparato de TV no eran más que el sueño afiebrado de unos locos. Hace unas pocas décadas, pensar en inseminación artificial, clonación o genoma era inimaginable, tal como ahora puede parecerlo hacer que un ciego vea o que se fabriquen órganos artificiales para remplazar a los originales. Sin embargo, todo aquello ahora está incorporado a nuestras vidas y nos parece de lo más normal.

¿Quién de nosotros, hace más de 15 años, podía imaginar que existiera algo como Internet y que iba modificar el mundo como lo modificó? La singularidad cambiará radicalmente el mundo que conocemos. Será inevitable como fueron inevitables todos los cambios científicos y adelantos tecnológicos. Y, por supuesto, no será un cambio bueno ni malo per se. Como siempre, dependerá de lo que hagamos con él.

Crecimiento lineal y exponencial

Existen dos tipos muy diferentes de crecimiento de una magnitud: el lineal y el exponencial, que también son denominados como progresión aritmética y progresión geométrica respectivamente. El crecimiento exponencial es el que caracteriza la forma en que evolucionan la tecnología y, cada vez más, una gran cantidad de ciencias. En un crecimiento lineal la magnitud va aumentando por la adición de una cantidad constante. El ahorro personal que no se pone a interés en un banco sigue una progresión aritmética. Si cada mes puedo guardar, por ejemplo, $10, al cabo de n meses voy a tener ahorrados n x $10.

Es decir, la cantidad constante que voy sumando mes a mes es 10. Y es indistinto si ya llevo ahorrados $10 o $1000: al mes siguiente voy a volver a agregar $10 más, lo cual implica un incremento del 100 por ciento en el primer caso y de sólo el 1 por ciento en el segundo. Si voy con mi auto a 100 km/h, en cada hora voy a agregar 100 km a lo que ya llevo recorrido. Claramente se trata de un crecimiento lineal. En todo momento las variaciones del espacio recorrido son iguales y no tiene sentido suponer que cuanto más llevo recorrido más rápido voy a ir. Por su parte, en un crecimiento exponencial la magnitud aumenta por multiplicación por una constante denominada razón.

Los procesos de crecimiento poblacional son del tipo geométrico (suponiendo el caso ideal en el que no haya depredadores y existan recursos ilimitados para la subsistencia). Por ejemplo, supongamos una colonia de bacterias que tiene 10 individuos y que, transcurridos 15 minutos, haya 10 más. Si pasado un tiempo la colonia tiene 1.000.000 de bacterias, no es razonable suponer que luego de otros 15 minutos la población va a ser de 1.000.010. En este caso es hasta intuitivo esperar encontrar 2.000.000 de individuos. Esto es así porque la progresión es geométrica en lugar de lineal y, cada 15 minutos, la magnitud se multiplica por 2 en lugar de incrementarse en 10.

Se comprende claramente si pensamos que las nuevas bacterias aparecen por reproducción de todas las que había y no sólo de 10 de ellas. El crecimiento de las poblaciones humanas (por ejemplo de los habitantes de un país) también es del tipo exponencial, en donde la constante se denomina tasa de crecimiento poblacional. Los procesos inflacionarios siguen un patrón similar: mes a mes se multiplican los precios por el mismo valor, el índice de inflación. Y, desde luego, el aumento del capital puesto a interés compuesto sigue, por definición, una progresión geométrica. En el crecimiento exponencial, el incremento retroalimenta al valor inicial y se agrega a él.

Por lo tanto, el nuevo aumento es sobre el total. En cambio, en el crecimiento lineal los incrementos son individuales y no dependen del valor total en cada momento. Es por esto que la tecnología crece de modo exponencial. Si se logran achicar los transistores, la cantidad de ellos que entra en una unidad de superficie sigue un crecimiento exponencial. Y cualquier ciencia que logra digitalizarse también pasa a tener un crecimiento geométrico, se contagia del crecimiento exponencial de la tecnología. Un ejemplo es la capacidad de las computadoras para jugar al ajedrez.

En 1997, Deep Blue, una computadora fabricada por IBM, venció al campeón mundial Garry Kasparov (se trataba de un RS/6000 SP con 32 nodos de 8 procesadores cada uno, utilizando el sistema operativo AIX). Contra todos los pronósticos, Deep Blue triunfó utilizando fuerza bruta (la capacidad de evaluar millones de jugadas por segundo y elegir la mejor). El honor de la especie humana había sido humillado por una supercomputadora de varios millones de dólares. Sin embargo, hoy en día se pueden correr programas similares en equipos que están al alcance de cualquiera. Aquello que en los ’80 era impensable y en los ’90 fue una realidad alcanzada con esfuerzo (y millones) hoy es un hecho trivial.

Y ya nadie siente su orgullo agraviado. Otro buen ejemplo es el genoma. En 1990, cuando comenzó el Proyecto Genoma Humano y se puso como objetivo lograr el secuenciamiento en 15 años, parecía muy difícil que se consiguiera. Pensando en términos lineales, las estimaciones hubieran sido que se iba a lograr en varias décadas. Sin embargo, a medida que la capacidad de procesamiento aumentó, el secuenciamiento se hizo cada vez más y más rápido y se logró obtener el primer borrador en 2000 y el resultado final en 2003, es decir dos años antes de lo esperado y muchísimos más que si el avance tecnológico fuera lineal. Hoy, una década después, se puede obtener el genoma propio en unos pocos días.

Además, lo que costó unos 3.000 millones de dólares de 1990, pronto costará no más de S100. Al estar actualmente digitalizado el genoma, los avances en biología se aceleran a un ritmo exponencial. La biología se contagia de la informática. Por lo tanto, la capacidad para trabajar en temas médicos aumenta geométricamente, abriendo la perspectiva de una prolongación sustancial de la vida.

La ley de Moore

En 1965, Gordon Moore enunció la ley que lleva su nombre y que marcaría la tecnología y su desarrollo hasta nuestros días. Esa es la época en la que se sentaron las bases de la actual tecnología de las computadoras. Unos años antes, en 1947, fue inventado el transistor en los Laboratorios Bell y en 1958 Jack Kilby logró desarrollar el primer circuito integrado o chip, que consiste en un conjunto de transistores empaquetados juntos. El dispositivo de Kilby era de germanio en lugar de silicio y constaba de tan sólo 6 transistores. Para 1965, la industria se hallaba en pañales pero en ebullición.

En ese contexto, Moore observo que el número de transistores por unidad de superficie en los circuitos integrados se duplicaba cada año. Más tarde, en 1975, modificó su estimación a cada dos años. Esto era sólo una observación empírica de lo que se podía apreciar y no una ley rigurosa. Sin embargo, transcurridos casi 50 años, la ley no ha dejado de verificarse. En 1971 se creó el microprocesador, que es un chip que funciona como la unidad central de procesamiento de una computadora. El primer microprocesador fue el 4004 de Intel y desde ese momento los procesadores aumentan su potencia siguiendo la ley de Moore. Es por este motivo que siempre veremos que el procesador tiene mismo tamaño.

Es decir, aumentan los componentes, con lo cual se incrementa la potencia, pero a la vez crece la densidad de esos componentes, con lo cual el tamaño del chip es siempre el mismo. Para hacernos una idea de lo que esto significa, podemos apreciar que en 1975 había 10.000 transistores en un procesador, mientras que en 1995 había 10 millones y se estima que hay 10.000 millones para 2015. Es decir, la densidad se incrementa mil veces en 20 años y ¡1 millón! de veces en 40. Todo este proceso es el que explica cómo es que las computadoras son cada vez más y más potentes, aunque el precio sea siempre el mismo. Y que tecnologías que en un momento son muy caras, en pocos años se hagan accesibles para todos.

Sin la Ley de Moore sería imposible, por ejemplo, que los estados pudieran darles netbooks a sus alumnos. Sin embargo, esto que para muchos es la demostración de que el avance tecnológico beneficia a todos, en realidad demuestra que para algunos la tecnología llega mal y tarde. Y, dado que este avance es exponencial, la brecha tecnológica es cada vez más grande. La ley de Moore resultó ser más certera de lo que cualquiera pudo imaginar en 1965 y, contra cualquier pronóstico, se viene cumpliendo desde que fue enunciada hace medio siglo. Sin embargo, está por llegar a su fin.

Esto es algo esperable ya que nada se puede reducir indefinidamente: si ninguna otra cosa sucede antes, al final nos topamos con el tamaño de un átomo, por debajo del cual no se pueden achicar más los transistores. En 2007, el propio Moore afirmó que su ley se mantendría vigente por otros 10 o 15 años, es decir hasta aproximadamente 2020. Actualmente, los componentes de un procesador de última generación miden 14/16 nm (mil millonésimas de metro) Ya estamos en el borde de lo posible: la distancia entre átomos de silicio es de aproximadamente 0,5 nm, de donde se deduce que los actuales componentes de los chips constan de tan sólo unos 30 a 40 átomos. Sin embargo, el fin de la Ley de Moore significa solamente el fin de un paradigma extremadamente exitoso. Sin dudas aparecerá uno nuevo que lo reemplazará para continuar la carrera vertiginosa del crecimiento exponencial de la tecnología.

Ray Kurzweil y la extensión de la Ley de Moore

Cuando la ley de Moore llegue a su fin, un nuevo paradigma tomará la posta para continuar con el crecimiento exponencial de la tecnología. Ray Kurzweil analizó el desarrollo de las máquinas previas al paradigma de los circuitos integrados, sobre el que hace sus predicciones la ley de Moore. El observó que el crecimiento geométrico de la capacidad de procesamiento es anterior a dicho paradigma y se extiende a lo largo de cinco tecnologías. Las primeras máquinas, a principios del siglo XX, eran mecánicas. A éstas le siguieron las basadas en relés, las de válvulas de vacío y las de transistores discretos. Los circuitos integrados son tan sólo la quinta tecnología, cuando la ley de Moore agote su capacidad de predicción del aumento de la densidad de transistores en un circuito integrado, estará lista una nueva tecnología para reemplazar a la actual.

La capacidad de procesamiento de la información viene siguiendo un comportamiento exponencial desde hace miles de millones de años. La evolución la que sigue un crecimiento exponencial, por lo cual el patrón se extiende desde el surgimiento de la vida, atravesando todo su desarrollo hasta llegar al ser humano y la tecnología. Hace unos 3.500 millones de años surgió la vida en la tierra; se trataba de seres unicelulares primitivos. Por esos tiempos se desarrolló el ADN. Lo esencial para que exista un proceso evolutivo es que haya un registro escrito de los logros. De otra manera no se podría avanzar ya que siempre habría que repetir lo que ya se hizo y no existiría forma de transmitir la experiencia. Es por esto que el ADN es un paso tan importante: es la forma que surgió en la naturaleza para registrar lo ya hecho por ella misma.

Se necesitaron tiempos del orden de los miles de millones de años para que, a partir de aquellas células primitivas, se desarrollaran las modernas células eucariotas de las que están formados todos los animales, las plantas y los hongos. A partir de la existencia del ADN se pudieron formar los primeros organismos multicelulares hace unos 700 millones de años. Unos 150 millones de años más tarde se produjeron la explosión cámbrica, en la cual se conformaron una parte importante de las grandes ramas (filos) de los animales modernos. Más adelante aparecieron las clases de los peces, los reptiles y finalmente los mamíferos. El desarrollo de la rama de los mamíferos se mide en decenas de millones de años.

El orden de los primates apareció hace unos 80 millones de años y, para cuando surgió la familia de los homínidos (a la cual pertenecemos junto a los chimpancés, los gorilas y los orangutanes) la separación entre sucesos ya rondaba los millones de años. A partir del surgimiento del género homo, los hechos trascendentes se suceden en el orden de los cientos de miles de años. Posteriormente se desarrolló el lenguaje y, finalmente, apareció el homo sapiens hace unos 200 mil años. En este punto, El motor del avance dejó de ser la evolución para dar paso a la tecnología. La tecnología es la evolución por otros medios. Aparecieron la cultura, el arte, la domesticación del fuego y las primeras herramientas. A esta altura, los sucesos se desarrollaban en el orden de las decenas de miles de años. Con la revolución neolítica surgieron la agricultura y las primeras ciudades.

Comenzaron las grandes civilizaciones, apareció la escritura y se creó la rueda. Estamos en el orden de los miles de años entre hechos importantes. Hasta la Revolución Industrial, en el siglo XVIII, los cambios tomaron cientos de años, con el surgimiento de la imprenta y el método científico como sucesos sobresalientes. A partir de allí, el avance es vertiginoso. Los acontecimientos destacados durante los siglos XIX y XX se suceden en el orden de las décadas hasta llegar al advenimiento de las computadoras en donde el proceso exponencial sigue su curso a través de la ley de Moore. Aunque para nosotros haya pasado una enormidad de tiempo, para la historia de la vida es tan sólo un 0,2%. El desarrollo exponencial de la evolución se debe a que se construye sobre lo construido. Es decir, una vez que aparece una herramienta, la evolución la aprovecha para seguir avanzando.

Por ejemplo, se necesitaron miles de millones de años para que surgiera el ADN pero después, haciendo uso del propio ADN, la evolución avanzó mucho más rápido. También llevó mucho tiempo el desarrollo de las computadoras pero, cuando éstas estuvieron disponibles, la tecnología siguió avanzando utilizándolas. El capitalismo ha sido el motor fundamental para el avance de la tecnología durante los últimos dos siglos. Sin embargo, nada asegura que lo siga siendo en las próximas etapas. Si el ADN fue en su momento el motor principal del que se valió la evolución hasta el surgimiento del homo sapiens, una vez que el ser humano tomó las riendas del progreso tecnológico la evolución biológica dejó de ser una herramienta necesaria. Por lo tanto, el capitalismo como herramienta del progreso bien puede correr la misma suerte que el ADN.

La leyenda del inventor del ajedrez y la singularidad

Cuenta una leyenda que, hace muchos años en la India, un hombre llamado Sessa creó el ajedrez para diversión del soberano que, al parecer, estaba un poco aburrido. Este, encantado con el nuevo divertimento, ofreció la recompensa que quisiera al inventor quien, conocedor de los secretos de las matemáticas, pidió un modesto premio. Sessa solicitó al rey que se le concediera 1 grano de trigo por el primer casillero del tablero de ajedrez, 2 granos por el segundo, 4 por el tercero, 8 por el cuarto y así siguiendo, duplicando en cada casillero la cantidad de granos del anterior, hasta llegar al último, el número 64. El rey quedó muy sorprendido por este pedido tan humilde. Después de todo, era inmensamente rico y tan sólo le estaban requiriendo un puñado de trigo.

Los matemáticos reales se pusieron a hacer cuentas para satisfacer lo demandado, pero grande fue la sorpresa cuando llegaron al número final: el rey le debía a Sessa ni más ni menos que 18.446.744.073.709.551.615 granos de trigo (casi 18 trillones y medio), lo cual era absolutamente imposible de pagar. Esta historia pone de manifiesto lo que sucede con las progresiones geométricas. A cada casillero le corresponde una potencia de 2, desde 20 para el primero hasta 263para el último. Se puede demostrar, además, que la suma de todos los granos de trigo será 264 – 1 (aquellos 18,5 trillones de granos que calcularon los matemáticos del rey). Este número es sumamente complicado de imaginar. Más fácil es visualizar el peso y el volumen del total de trigo. Un parámetro que se utiliza para clasificar los cereales es el peso de 1000 granos.

En el caso del trigo, este valor se sitúa (según la variedad) alrededor de los 40 gramos. Por lo tanto, el total de trigo pesará unos 750 mil millones de toneladas. Dado que la producción mundial anual es de alrededor de 650 millones de toneladas, serían necesarias más de 1000 cosechas actuales (y muchísimas más de las de la época de Sessa) para pagar la deuda. Como además 1 m3 de trigo pesa alrededor de 800 kg, el rey debería darle a Sessa un volumen de unos 920 Km3 de trigo. Es decir, un cubo de casi 10 km de lado o un silo de 10 m de diámetro y unos 11,7 millones de km de altura (más de 30 veces la distancia entre la Tierra y la Luna).

Ahora bien, el rey no podía imaginar de entrada que iba a deber semejante cantidad de trigo. Los primeros casilleros fueron sumando cantidades insignificantes de granos: 1, 3, 7, 15… Para la casilla 16, la suma era de tan sólo 2,6 kg; nada impresionante. Incluso al llegar a la mitad, en el casillero 32, los matemáticos calcularon unas 170 toneladas que ocuparían unos 215 m3, es decir un pequeño silo de 10 m de diámetro y algo menos de 3 m de altura. De nuevo, nada espectacular. Esta es la paradoja de una progresión exponencial. Al principio no es muy prometedora, pero cuando se dispara se hace explosiva. Pensemos qué hubiera pasado si Sessa pedía granos de trigo siguiendo una progresión lineal. Digamos 1 billón de granos para el primer casillero, otro billón para el segundo y así siguiendo (podría ser cualquier otro valor pero éste es grande e impresiona).

El rey se hubiera preocupado de entrada por el pedido del inventor y durante muchos casilleros la cantidad sería muy superior a la de la progresión exponencial. La suma de los granos de los primeros 32 casilleros, por ejemplo, es de 32 billones para la progresión aritmética mientras que para la geométrica es sólo de 4.294.967.295 (unas 8 mil veces menos). Recién en el casillero 46 la progresión exponencial pasa al frente (algo más de 70 billones contra 46 billones) y después se hace vertiginosa. Al final, los 64 billones de granos que arrojaría la lineal (2.560.000 toneladas; un 0,4 por ciento de la producción mundial) parecen una insignificancia. Con la tecnología pasa lo mismo; todas las predicciones suenan a ciencia ficción y a utopía.

Pero lo que sucede es que estamos en la situación inicial del rey para el que no era imaginable que la progresión exponencial se tradujera en semejante cantidad de trigo. Durante todo el siglo XX, la tecnología siguió un desarrollo exponencial mientras que nuestros cerebros lineales no podían imaginar progresos. Es por esto que el desarrollo tecnológico era palpable pero no impresionante ya que nuestro sentido común podía aceptar mucho más. Claro que personas como Gordon Moore estaban en la posición de Sessa y sí podían ver ese crecimiento exponencial e imaginar cuál sería el futuro.

Actualmente cualquier persona nota este comportamiento cuando cambia su celular cada dos años (la obsolescencia programada también es un factor importante de este proceso pero no es el tema de este artículo), cuando se asombra de la desaparición de los rollos de fotos que usaba hasta hace pocos años o cuando toma conciencia de que Internet se hizo central en su vida en sólo una década. Es que hoy en día rondamos el momento en el cual la curva exponencial supera a la lineal. En el futuro, esta curva exponencial se va a disparar y se apartará totalmente de lo que nuestro sentido común está dispuesto a imaginar.

El test de Turing

Alan Turing en 1950 enunció el test que lleva su nombre. El test de Turing se basa en la hipótesis de que si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente. Se lleva a cabo de la siguiente manera: Una persona y una máquina son evaluados por un juez con el que no tienen contacto directo (se lo suele ubicar en una habitación separada). El evaluador hace todas las preguntas que quiera y recibe las respuestas por escrito. Si al final de la prueba el juez no pudo determinar cuál de los dos es el humano y cuál la máquina, entonces esta última superó el test de Turing y se considera que es inteligente. ¿Pero, Es suficiente el hecho de que el comportamiento de una máquina sea indistinguible al de un ser humano para afirmar que la primera es inteligente? Tal vez sí sea inteligente, aunque eso no implica que tenga conciencia.

O quizás la tenga pero ¿cómo saberlo dado el hecho de que la conciencia es una vivencia absolutamente personal? De hecho, si es indistinguible de un ser humano, la máquina debe afirmar que es consciente (aunque eso no alcance para que lo sea). Esta línea de pensamiento lleva a una postura solipsista en la que únicamente siendo la máquina podríamos afirmar que piensa. Después de todo, también entre los seres humanos es cierto que cada persona sólo puede afirmar que ella misma es consciente e intuir que las demás lo son. Para los que sostenemos que el cerebro no es más que una computadora sumamente compleja que ejecuta algoritmos también sumamente complejos.

Quienes adhieren a esta postura consideran que, dado que en el cerebro no hay más que materia y energía, incluso la conciencia debe ser un programa (de tipo autoconsciente o, como diría Douglas Hofstadter, un bucle extraño). Y que desconocer esto implica adoptar explicaciones metafísicas como la de la existencia del alma. De todo esto se concluiría que no hay motivos para que no se pueda crear una máquina que replique esos programas autoconscientes. Los partidarios de la IA fuerte sostienen que alcanza con el test de Turing para afirmar que una máquina piensa, pero sus detractores no están de acuerdo. John Searle imaginó un experimento mental conocido como la habitación china para rebatir su validez. En esta prueba se supone que una máquina supero el test de Turing siendo evaluada por un juez en idioma chino.

Entonces Searle imagina que él mismo entra en una habitación completamente aislada del exterior en donde cuenta con el algoritmo de la máquina. El mismo juez introduce las preguntas en chino y Searle (que no entiende ni una palabra de ese idioma) puede contestar usando el mismo algoritmo que usaba la máquina (no tengamos en cuenta aquí el hecho de que el tiempo necesario para realizar semejante tarea debería ser absurdamente grande). Entonces Searle se pregunta ¿cómo es posible que alguien que no entiende qué le están preguntando sea capaz de responder coherentemente? Los críticos de la IA fuerte entienden que esto demuestra que el hecho de superar el test de Turing no implica que quien lo hace sea inteligente. Para ellos sólo demuestra la capacidad de manipular signos sintácticos y no de comprender la semántica de lo que se procesa.

Estas discusiones son muy fructíferas pero, si las máquinas alcanzaran un grado de desarrollo que las hiciera indistinguibles de los seres humanos (digamos que puedo casarme con una robot y vivir años con ella sin darme cuenta de que no es humana) en los hechos carecería de importancia. Actualmente no existe ninguna máquina que supere el test de Turing, pero sí hay muchas que lo hacen de manera restringida, para tareas específicas. Deep Blue lo logra jugando al ajedrez, aunque no distinguiendo un gato de un perro. Watson lo supera en la tarea de participar de Jeopardy!. Hay aplicaciones que juegan en la bolsa y lo hacen mejor que la mayoría de las personas, de hecho el 50% de las operaciones financieras internacionales de compraventa de acciones es realizado por estos sistemas).

También hay aplicaciones que componen música que es imposible distinguir de la compuesta por los seres humanos. Los captchas existen para que un programa automático no pueda generar miles de cuentas falsas. Funcionan porque las personas podemos interpretarlos pero las máquinas no. Por supuesto no servirían si las máquinas hubieran superado el test de Turing. Sin embargo, cada vez deben ser más y más complicados para que esos programas automáticos no puedan descifrarlos. Llegará el día en que se vuelvan obsoletos. Los defensores de la IA fuerte son optimistas. Hay estimaciones según las cuales las máquinas superarán el test de Turing (o, lo que es lo mismo según esta postura, alcanzarán la inteligencia de un ser humano) en algún momento de la década de 2020.

Watson

Cuando en 1997 Deep Blue venció a Kasparov, los opinologos se apresuraron a decir que jugar al ajedrez no es más que hacer un montón de cálculos y que en actividades verdaderamente humanas las máquinas nunca podrían igualar a las personas. Pero antes de dicho encuentro, el ajedrez también era pensado como un juego verdaderamente humano en el que las máquinas jamás podrían vencernos. IBM, empresa desarrolladora de Deep Blue, desarrollo Watson que consta de 90 equipos IBM Power 750 con un total de 2880 cores POWER7 y 16 TB de memoria RAM y almacena el contenido de enciclopedias, diccionarios, obras literarias, noticias y la Wikipedia. Tiene la capacidad de analizar 500 GB de información por segundo (el equivalente a 1.000.000 de libros).

Watson participó en 2011 en Jeopardy! Que es un concurso en el que las pistas tienen forma de respuesta y el participante debe contestar con la pregunta correspondiente (¿si el conductor pregunta 3,1416, la respuesta debe ser Cuál es el valor de pi?). El reto más importante para los ingenieros de IBM es que pudiera entender lenguaje natural, incluyendo ironías, dobles sentidos y juegos de palabras, todas formas de comunicación verdaderamente humanas que se utilizan habitualmente en Jeopardy!. Es en este punto en donde se aprecia un avance importante en el camino hacia las máquinas inteligentes. Una vez que Watson entiende la pista, busca entre sus datos (no está conectada a Internet) y encuentra la respuesta que a su criterio tiene mayor nivel de certeza.

Los oponentes de Watson fueron dos especialistas de Jeopardy!: Brad Rutter, el mayor ganador de dinero de la historia del programa y Ken Jennings, quien tuvo la mayor racha ganadora. Watson recibió las pistas en el mismo momento que los humanos a través de textos electrónicos y debió presionar el pulsador con un dedo mecánico para no tener ventaja sobre Rutter y Jennings, ya que por la dinámica del juego es importantísima la velocidad para accionar el botón una vez que se enciende una luz. Las respuestas fueron dadas oralmente. Para cada pista se mostraron en pantalla las tres opciones a las que Watson asignó la mayor certeza, tomándose como respuesta la primera. Watson compitió de igual a igual con los jugadores humanos. Sin dudas tuvo ventajas y desventajas.

Respecto del pulsador, si bien su velocidad fue insuperable (unos pocos milisegundos) no contaba con la posibilidad de accionarlo antes de estar seguro de su respuesta, mientras que una persona puede aprovechar el par de segundos desde que pulsa hasta que contesta. Por otra parte Watson es inmune a los condicionamientos psicológicos. Una respuesta errónea de Watson fue particularmente interesante para el análisis de sus capacidades. En la categoría ciudades de Estados Unidos se dio como pista: mayor aeropuerto tiene el nombre de un héroe de la Segunda Guerra Mundial y el segundo el de una batalla de la Segunda Guerra Mundial. La respuesta de Watson fue: “What is Toronto?????”. Los cinco signos de interrogación los agregó el propio Watson para poner énfasis en que su grado de certeza era muy bajo.

Los técnicos de IBM dieron algunas explicaciones (la categoría no figuró en la pregunta, hay varias ciudades Toronto en Estados Unidos, etc.) y además la segunda opción (con un grado de certeza más bajo aún) era “What is Chicago”, que es la respuesta correcta. Paradójicamente, este error parece darle un matiz humano a Watson. El resultado final no dejó lugar a dudas: Watson se impuso obteniendo $1.000.000 de contra 300.000 para Jennings y 200.000 para Rutter. Como con Deep Blue, se objeta que en realidad lo único que hace Watson es procesar datos. Sin embargo, si bien no se puede afirmar que sea inteligente y mucho menos que sea consciente, Watson puede interpretar lenguaje natural lo cual era, hasta ahora, una capacidad exclusivamente humana. Por otra parte, tanto Watson como Deep Blue demostraron ser extremadamente eficientes en lo suyo.

Parafraseando, en broma, a Kent Brockman les digo: “Por mi parte, doy la bienvenida a nuestros nuevos amos, las computadoras”. Actualmente se está nutriendo a Watson de información médica. Si es tan eficiente contestando preguntas de cultura general y compitiendo con los mejores, sin dudas también lo será cuando conteste consultas sobre nuestro cuerpo y compita con cualquier médico del montón. En menos de 20 años nuestro celular será mejor que cualquier médico humano y abarcará todas las ramas de la medicina y no solamente una especialidad en particular.

Hoy nadie confiaría su salud a una máquina, pero en un par de décadas nadie se la va a confiar a un humano. Después de todo ¿cuánto tiempo tardamos en encomendar nuestros destinos a un GPS? Qué pasará con los médicos, abogados, ingenieros, arquitectos, etc? la industrialización no destruye puestos de trabajo, sino que los remplaza por otros más calificados. Con el actual paradigma tecnológico cada vez será más difícil encontrar una tarea en la que las máquinas no puedan remplazar al humano.

Máquinas y cerebros

Para que una máquina pueda emular el funcionamiento del cerebro es necesario desarrollar los algoritmos que puedan simular ese funcionamiento y por el otro se debe incrementar la capacidad de procesamiento para que esos algoritmos puedan ejecutarse de manera correcta y en un tiempo razonable. Los programas que juegan al ajedrez analizan mecánicamente todas las posiciones a las que se puede arribar después de una cantidad de movimientos determinada, para lo cual recorren todas las jugadas posibles y, mediante alguna heurística, evalúan las mejores. Esto implica una cantidad de procesamiento enorme. Por ejemplo, en el comienzo de una partida, el jugador de las blancas puede realizar 20 jugadas distintas y su oponente puede responder también con 20 jugadas. Por lo tanto, en tan sólo dos movidas hay 400 alternativas por considerar.

Gracias a la heurística las máquinas pueden no analizar muchas posiciones que saben que no son buenas, pero el número de alternativas a considerar crece exponencialmente con la cantidad de movimientos que se quiera examinar. Por eso, esta metodología es ideal para la capacidad de procesamiento de las máquinas e imposible de utilizar por un ser humano. Las personas juegan a ajedrez de manera más intuitiva, sin analizar exhaustivamente cada posible movimiento. Una clase particular de algoritmo de búsqueda es la de los algoritmos evolutivos, con los cuales se simulan los procesos utilizados por la evolución biológica. En primer lugar se proponen al azar diversos candidatos a soluciones para un problema los cuales, por ser arbitrarios, tienen muy alta probabilidad de ser inadecuado. En el siguiente paso se produce una nueva generación de candidatos con pequeñas mutaciones.

Luego, mediante el uso de alguna heurística, se evalúan y se seleccionan los mejores, emulando la supervivencia del más apto darwinista. El ciclo se repite y después de muchas iteraciones (generaciones) se obtienen resultados extraordinarios. El método con el cual la naturaleza obtiene resultados después de millones de años, a las máquinas les lleva segundos. Sin embargo, al igual que la propia evolución biológica, este tipo de algoritmos no posee inteligencia; se trata de un método puramente mecánico ya que las especies se producen por prueba y error y sobreviven las más aptas. En las redes neuronales, en las cuales se emula el funcionamiento del cerebro. Este método es menos mecánico y no se programan los conocimientos sino que la red neuronal aprende de la experiencia como lo haría un niño.

Hay objetos interconectados que hacen las veces de neuronas (cada una de ellas puede ser un procesador sencillo o un pequeño programa). Estas neuronas reciben señales de sus vecinas. A cada uno de estos impulsos se le asigna mayor o menor importancia a través de un factor por el que se multiplica la señal. Entonces, si la sumatoria ponderada de los estímulos supera un umbral, la neurona emite a su vez una señal de salida y si no lo supera no hace nada. Al principio, los valores de los umbrales y los factores de ponderación son arbitrarios por lo que el comportamiento de la red no responde a ninguna pauta y los resultados son erróneos y aleatorios. Entonces se introduce una muestra de prueba y un maestro, que puede ser una persona u otra máquina, evalúa los resultados y va modificando dichos valores para ajustar la salida al resultado correcto.

Después de muchas pruebas, la máquina va tomando experiencia y aprende cómo encontrar una respuesta a nuevas situaciones similares pero no iguales a las que se utilizaron durante el proceso de aprendizaje, tal como sucede con los humanos. Las redes neuronales utilizan lo que se conoce como procesamiento paralelo, que es una característica también presente en nuestros cerebros. En esta forma de trabajo no hay un procesador central que ejecute secuencialmente distintas tareas sino que, en un mismo momento, un gran número de neuronas está procesando simultáneamente (en paralelo) distintas tareas. Esta propiedad es la que permite que, a pesar de la lentitud individual de cada una de las neuronas, nuestros cerebros funcionen a una velocidad aceptable.

Existen implementaciones de redes neuronales en reconocimiento de imágenes, sistemas automáticos que operan en las bolsas, programas de marketing, etc. Respecto del hardware estamos en los umbrales de tener la capacidad de procesamiento del cerebro humano en un PC lo que sucederá en la década del 2020. Crecimiento exponencial mediante, un año después esa máquina tendrá la capacidad de procesamiento de dos personas y luego de otro año la de cuatro. Y, hacia la década de 2050, una máquina personal (sea eso lo que fuere en ese momento) podrá procesar el equivalente a todos los cerebros humanos. Sin dudas podrán conversar con nosotros y realizar muchísimas tareas que todavía hoy consideramos exclusivamente humanas.

Tal vez, en la década de 2030, los robots se asombren cuando les contemos de una época cercana en la que ellos no existían y la mayoría de los seres humanos los pensaban como cosa de La Guerra de las galaxias.

1 comentario en «La Singularidad vista desde 2007»

  1. Excelente post , me encanto mas aun estando en 2023 leyendo esto , gracias por compartir contenido en twitter y tener esta web para seguir nutriendome de conocimiento y mejor que este en mi idioma y esa persona sea de mi pais ! Saludos

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *