singularity580

Explosión de Inteligencia

La inteligencia es un arma evolutiva muy poderosa. Fue apenas un pequeñísimo incremento en nuestra habilidad para resolver problemas y en la capacidad de movernos coordinadamente en grupo la ventaja que nos hizo hacer morder el polvo a las demás especies de primates. Más aún, la inteligencia no es un atributo de los humanos, sino que cualquier entidad (incluso colectiva) puede tener cierta dosis de inteligencia para garantizar su propia existencia.

Sobre esta premisa básica es que surge un concepto poético y aterrador a la vez: la explosión de inteligencia.

El concepto es muy sencillo:

Let an ultra-intelligent machine be defined as a machine that can far surpass all the intellectual activities of any man however clever. Since the design of machines is one of these intellectual activities, an ultra-intelligent machine could design even better machines; there would then unquestionably be an “intelligence explosion,” and the intelligence of man would be left far behind. Thus the first ultra-intelligent machine is the last invention that man need ever make.

Que traducido libremente quedaría como:

Sea una máquina ultra-inteligente definida como una máquina que puede superar todas las actividades intelectuales de cualquier ser humano y, siendo el diseño de máquinas una de esas actividades intelectuales, aquella podrá diseñar incluso mejores máquinas; entonces indudablemente habrá una “explosión de inteligencia” y la inteligencia del hombre será dejada atrás. De esta forma, la primera máquina ultra-inteligente es la última invención que el hombre necesitará construir.

Una “explosión de inteligencia” es un escenario teórico en el que una entidad inteligente analiza los procesos que producen su propia inteligencia, los mejora, y luego crea a su sucesor; el cual hará lo mismo. Este proceso se repite retroalimentándose constantemente, siendo cada entidad inteligente más inteligente que la anterior. Hasta que se alcance un límite, el cual de todos modos será increíblemente mayor que el del intelecto humano.

El momento en el que esto ocurra, es el momento que algunos decidieron llamar como “Singularidad Tecnológica“. Y es una teoría que inquieta mucho a muchas personas.

Parece ciencia ficción, pero científicos muy renombrados como Stephen Hawking (entre otros) llevan bastante tiempo avisando: si seguimos jodiendo con esto de crear inteligencia artificial, nos va a ir mal. A menos que podamos integrarla en nuetros cuerpos biológicos antes de que sea demasiado tarde, claro :D

Lo que hace mucho más interesante a este concepto teórico sin embargo es que algunas fuentes se arriesgan a afirmar que este evento tiene que ocurrir dentro de los próximos 100 años. Los motivos tienen que ver con el hecho de que en los últimos 200 años se han producido más avances tecnológicos que en los previos 20 mil, con lo cual dada la naturaleza exponencial de los avances, sobran razones para creer que algo de todo esto debería ocurrir pronto.

Fuentes:

Leave a Reply