Evidencia de un Super Organismo Global

      1 Comentario en Evidencia de un Super Organismo Global
Inteligencia planetaria

Para 2029, las computadoras tendrán inteligencia emocional y serán tan convincentes como la gente

– Ray Kurzweil

Somos varios los que creemos que un Super Organismo está surgiendo del conjunto de cables, ondas de radio y nodos electrónicos que abarcan la superficie del planeta. Nadie podría discutir la escala o realidad de esta inmensa conectividad. ¿Pero qué es eso? ¿Es esta red global de computadoras, servidores, y redes de comunicación simplemente un circuito mecánico, una herramienta muy grande, o acaso llega a un punto en donde algo, digamos, distinto sucede?

La idea de que un Super Organismo Global está surgiendo del Internet ha sido vista como una metáfora, en el mejor de los casos. En este post, trataremos esta idea seriamente y veremos si podemos llegar a un argumento verosímil, así como señalar evidencia de su existencia.

Hipótesis: El conjunto de dispositivos conectados a Internet está dando forma a un Super Organismo de Cómputo, con su propio comportamiento emergente.

Un Super Organismo en un tipo diferente de organismo: las cosas grandes están formadas de cosas más pequeñas. Máquinas de gran tamaño están hechas de pequeñas partes, y los organismos vivos visibles están formados de células invisibles. De una manera ligeramente fractal, los componentes de un Super Organismo tienen una existencia en gran parte autónoma. Un Super Organismo, por ejemplo, una colonia de insectos o de roedores, contiene muchos sub-individuos; estos organismos individuales comen, se mueven y hacen cosas por su cuenta. Desde ciertos ángulos, dichos organismos individuales parecieran ser completos. Pero en el caso del insecto y los roedores, sus individuos necesitan de la colonia para reproducirse. De esta forma, la reproducción es un fenómeno que ocurre al nivel del Super Organismo.

Definamos a La Gran Máquina como el Super Organismo que está surgiendo de las computadoras. Es una super-mega-computadora compuesta de miles de millones de sub-computadoras. Las sub-computadoras pueden realizar cálculos individualmente por su cuenta y, desde la mayoría de las perspectivas, estas unidades son piezas completas de equipo. Pero existe una inteligencia emergente en su colectivo, la cual es superior a la de cualquier computadora individual. Podríamos decir que el aprendizaje (o la inteligencia) ocurre al nivel del Super Organismo.

Hace más de 50 años, las super computadoras consistían de grupos de sub-computadoras físicamente juntas y conectadas unas con otras, cada una con un procesador especialmente diseñados para realizar un sólo tipo de tareas (simulaciones, por ejemplo). A esto se le conoce como “clustering” o computación en racimos. En años recientes las super computadoras se han ensamblado con componentes no centralizados en un solo edificio, sino que están geográficamente distribuidos y están diseñados para ser versátiles y de propósito general. Las tares que realizan este tipo de super computadoras se presenta como un servicio que se entrega en cualquier lugar de la red, como la electricidad, y se le llama en inglés “grid computing”. También se le llama Nube de Computadoras porque la cantidad exacta de procesadores es dinámica y sin forma – como una nube. El contorno de la nube o red puede cambiar conforme sus componentes se conecten o desconecten.

En la actualidad tenemos varias nubes de computadoras. A Amazon se le atribuye la creación de una de las primeras nubes de computadoras comerciales. Tal vez sea Google quien tenga la nube de computadoras más grande en funcionamiento. Según Jeff Dean, uno de sus ingenieros de infraestructura, Google espera ampliar su nube de computadoras para incluir 10 millones de procesadores en 1,000 ubicaciones.

Cada uno de los procesadores en la nube de computadoras es un procesador de PC, prácticamente idéntico a que se usan en las computadoras portátiles. Hace algunos años los científicos informáticos se dieron cuenta de que no era necesario fabricar procesadores especializados para una supercomputadora, siendo mucho más rentable agrupar una gran cantidad de procesadores de bajo costo, y simplemente reemplazarlos cuando fallaran. Al día de hoy, los centros de datos para nubes de computadoras están repletos de gabinetes con los procesadores de mayor fabricación del planeta. Una ventaja inesperada de esta estrategia es que su alto volumen de producción significa que los errores se minimizan y, por lo tanto, los procesadores genéricos son más confiables que cualquier procesador personalizado que puedan haber diseñado.

Si la nube es una gran variedad de procesadores de computadoras personales, ¿por qué no agregar tu propia computadora portátil o de escritorio? De cierta forma ya está agregada: cada vez que estás en línea, cada vez que haces clic en un enlace o creas un enlace, tu procesador está participando en la gran nube, la nube de todos los procesadores en línea. Llamo a esta nube la Gran Máquina porque en muchos aspectos actúa como una super-mega-computadora.

La gran mayoría del contenido en la Web es creado dentro de esta gran computadora: se programan enlaces, se hacen clics, se mueven archivos y se instala código desde la dispersa y extensa nube creada por consumidores y empresas – la gran cantidad de smartphones, computadoras personales y estaciones de trabajo que usamos todo el tiempo. Mientras que el negocio de mover y almacenar bits ocurre en las granjas de servidores, la interacción de la nube con el mundo real se lleva a cabo en el campo extremadamente distribuido de dispositivos portátiles, móviles y de escritorio. A diferencia de los servidores, dichos dispositivos cuentan con pantallas, así como ojos, piel y oídos en forma de cámaras, sensores de tacto y micrófonos. Podríamos decir que la nube está formada principalmente por estos procesadores de computadora.

La mega-super-computadoras es la Nube de todas las nubes: el agrupamiento más grande posible de procesadores de computadoras. Es una máquina de dimensiones extraordinarias. Está compuesta de millones y millones de procesadores y consume el 5% de la electricidad del planeta. No es propiedad de ninguna corporación o nación (al menos no todavía), ni está realmente gobernada por humanos en absoluto. Varias corporaciones se hacen cargo de algunas de las nubes secundarias más grandes y una de ellas, Google, es quien en la actualidad domina la interfaz de usuario de La Gran Máquina.
Nada de lo anterior debería de ser controversial: desde un nivel abstracto, seguramente debe existir una máquina virtual colectiva de gran tamaño. Pero esto no es lo que la gente piensa cuando escuchan el término “Super Organismo Global”; esta frase sugiere la integridad constante de un organismo viviente, o incluso un sentido de identidad y hasta inteligencia consciente.

Desafortunadamente, no existe una definición formal para términos como “vida”, “mente”, “inteligencia” y “conciencia”. Cada uno de estos términos tiene una larga lista de características, pero es fácil encontrarles excepciones. Por ejemplo, si la reproducción es necesaria para definir “vida”, que pasaría con las mulas, las cuales son estériles? Obviamente las mulas son seres vivos. La inteligencia es un concepto difícil de definir, y la consciencia lo es aún más. La respuesta lógica es que todos estos fenómenos son variables/continuos: algunas cosas son más inteligentes, más vivas, o menos conscientes que otras.

Con esa perspectiva, una manera útil de abordar la cuestión de si está emergiendo un Super Organismo Global es considerar un conjunto de cuatro proposiciones.

En nuestro planeta existe:

  1. Un Super Organismo Fabricado.
  2. Un Super Organismo Autónomo.
  3. Un Super Organismo Autónomo Inteligente.
  4. Un Super Organismo Autónomo Consciente.

En estas proposiciones comenzamos con la observación casi trivial de que hemos construido un clúster de computadoras globalmente distribuido, el cual presenta un comportamiento a gran escala. A continuación, tenemos los dos niveles intermedios, los cuales son inciertos y frustrantes (y por lo tanto tal vez sean los que resulten más provechosos de explorar). Finalmente, tenemos la proposición que nos hace exclamar “¡Está pensando!”.
Mi afirmación es que estos cuatro niveles son etapas de desarrollo a través de las cuales La Gran Máquina está progresando. Comienza a formar un simple Super Organismo, el cual se vuelve autónomo, luego inteligente y, finalmente, consciente. Opino que la Gran Máquina ha pasado ya por los niveles 1 y 2 en las últimas décadas, y actualmente está ingresando al nivel 3; de ser cierto, deberíamos encontrar evidencia inicial de un Super Organismo computacional inteligente (pero no consciente) autónomo funcionando hoy en día.

Nivel 1: Un Super Organismo Fabricado

Por definición, los organismos y los super organismos tienen límites. Un exterior y un interior. El límite de La Gran Máquina es claro: si un dispositivo está conectado a Internet, está dentro. “ON” o “Encendido” significa que se está comunicando con las otras partes internas. Aunque algunos componentes están “ON” en términos de consumir energía, podría estar comunicándose sólo por periodos breves (por ejemplo, tu computadora portátil puede serte útil en un vuelo de 5 horas, pero técnicamente estaría conectada a La Gran Máquina hasta que aterrices y la conectes a una red wifi). Una TV común no es parte del Super Organismo, pero una Smart TV (conectada a Internet) sí lo es. Las dimensiones de esta red son mensurables y finitas, aunque variables.

La Gran Máquina consume electricidad para producir información estructurada. Al igual que otros organismos, está creciendo. Su tamaño está aumentando rápidamente, cerca de 66% por año, cual es básicamente la tasa de la Ley de Moore. Cada año consume más energía, más material, más dinero, más información y más de nuestra atención. Y cada año produce información más estructurada, más riqueza y más interés.

En promedio, las células de los organismos biológicos tienen una tasa de metabolismo en reposo de entre 1 a 10 vatios por kilogramo. Con base en la investigación realizada por Jonathan Koomey en UC Berkeley, los servidores de datos más eficientes en 2005 (de IBM) tienen una tasa de metabolismo de 11 vatios por kilogramo. Actualmente, los componentes de la Gran Máquina (en particular la red eléctrica y el sistema telefónico) pueden no ser tan eficientes. A medida que aumente el tamaño de La Gran Máquina, muy probablemente su tasa de metabolismo disminuirá (aunque el consumo total de energía aumentará).

La Gran Máquina tiene un tamaño aproximadamente igual a la superficie de la Tierra. Algunas porciones orbitan a algunos cientos de kilómetros, pero a escala del planeta los satélites, torres de celulares y granjas de servidores forman una delgada capa. Actividad en una parte sería detectada por todo el organismo, formando un todo unificado.

Predicción: La Gran Máquina continuará creciendo. Deberíamos ver como los datos fluyen por todo está máquina en respuesta a patrones cotidianos de uso. La tasa de metabolismo se acercará a la de un organismo viviente.

Nivel 2: Un Super Organismo Autónomo

La autonomía es un concepto difícil. Algunos creen que no existe una entidad no-viviente que sea realmente autónoma. Tenemos muchos ejemplos de autonomía parcial en cosas que hemos creado: drones autónomos que se pueden controlar ellos mismos, pero no se pueden reparar por sí mismos. Tenemos virus de computadoras que se auto reproducen, pero no tienen un metabolismo. Estos inventos necesitan de un humano para al menos un aspecto de su sobrevivencia.

Pero la autonomía también es un continuo. Casi siempre, una autonomía parcial es todo lo que necesitamos o queremos. Estaríamos encantados con robots de limpieza autónomos que requieran nuestra ayuda y aprobación para reproducirse. Un Super Organismo global no necesita ser totalmente independiente de humanos para que podamos sentir su autonomía.

Reconoceríamos un cierto grado de autonomía si una entidad muestra alguna de estas características: auto-reparación, defensa propia, auto-mantenimiento (asegurar de la energía, eliminación de residuos), autocontrol de objetivos, auto-superación. El elemento común en todas estas características es la aparición de una “identidad” al nivel del Super Organismo.

En el caso de La Gran Máquina, deberíamos de buscar evidencia de autonomía al nivel de la gran nube, en lugar de al nivel de sus procesadores componentes. Un fenómeno muy común a nivel de nube es un Ataque Distribuido de Denegación de Servicio (DDoS por sus siglas en ingles); en este tipo de ataque una amplia red oculta de computadoras, bajo el control de una computadora maestra, despierta de sus tareas ordinarias y de manera secreta realizan conexiones en masa a una computadora objetivo con el fin de ponerla fuera de línea. Algunas de estas redes pueden llegar a un millón de computadoras desprevenidas, por lo que el efecto de este ataque distribuido es bastante notable. Desde el nivel individual es difícil detectar la red, determinar su comando y detenerlo. Los ataques DDoS son tan masivos que pueden interrumpir el tráfico de salida de las computadoras afectadas, una consecuencia que podríamos esperar de un Super Organismo.

Investigadores como Reginald Smith han notado que hubo un cambio profundo en la naturaleza del tráfico en redes de comunicaciones en las últimas décadas, ya que pasó de ser principalmente de voz a ser una mezcla de voz, datos y todo lo demás. El tráfico de voz durante la época de Bell/AT&T mostraba un patrón conocido como distribución de Poisson, algo así como una curva de campana gaussiana. Pero desde que los datos de diversos componentes y páginas web se convirtieron en la mayoría de los bits en las redes, el tráfico en Internet ha seguido un patrón de escala invariable o fractal. Por lo tanto, la distribución de paquetes muy grandes y muy pequeños cae en una curva familiarmente reconocida como curva de cola larga. Los patrones de tráfico de escala-invariable o de cola larga del Internet han hecho que los ingenieros tengan que diseñar nuevos algoritmos para configurar el controlar el tráfico de redes. Este cambio de fase hacia patrones de tráfico invariables a escala puede ser evidencia de un alto grado de autonomía. Otros investigadores han detectado sensibilidad a las condiciones iniciales, patrones de “atractor extraño” y órbitas periódicas estables en la naturaleza autocompasiva del tráfico: todas siendo indicaciones de sistemas autónomos. Las distribuciones sin escala pueden entenderse como el resultado de una retroalimentación interna, generalmente provocada por la interdependencia entre las unidades. Si bien el patrón libre de escala del tráfico de Internet es indiscutible y se ha verificado en muchos estudios, existe controversia sobre si eso significa que el sistema en sí mismo tiende a optimizar la eficiencia del tráfico, pero algunos creen que así es.

Como era de esperar, los grandes flujos de bits en Internet presentan ritmos periódicos. La mayoría de estos son diurnos y se parecen a corazón latiendo. Pero también se pueden apreciar perturbaciones de los flujos de bits en Internet causados por una congestión masiva del tráfico. El análisis de estos eventos “anormales” muestra una gran similitud con los latidos cardiacos anormales. Se desvían de los ritmos “en reposo” de la misma manera que las fluctuaciones de un corazón enfermo se desvían de un latido cardiaco saludable.

Predicción: La Gran Máquina tiene un bajo nivel de autonomía en la actualidad. Si la hipótesis del Super Organismo es correcta, en los próximos años deberíamos de detectar un mayor fenómeno de escala invariante y un sistema de gestión de tráfico más autónomo.

Nivel 3: Un Super Organismo Autónomo Inteligente

Los organismos pueden ser inteligentes sin ser conscientes. Una rata es inteligente, pero podemos suponer, sin mucha consciencia de sí misma. Si La Gran Máquina fuera tan inconscientemente inteligente como una rata, esperaríamos que siguiera las estrategias que perseguiría un animal inteligente: buscaría fuentes de energía, reuniría tantos recursos como pudiera, tal vez hasta acaparándolos. Buscaría un refugio seguro. Robaría todo lo que necesitara para crecer. Se defendería quien intentara matarla. Se resistiría a los parásitos, pero no se molestaría en eliminarlos si no causaran algún daño mortal. Aprendería y se volvería más inteligente con el tiempo.

Google y Amazon, dos nubes de computadoras distribuidas, se están volviendo más inteligentes. Google ha aprendido a deletrear palabras: al observar los patrones de ortografía correcta de los humanos en línea, se ha convertido en un corrector suficientemente bueno que ahora corrige a los humanos con errores ortográficos. Google está aprendiendo docenas de idiomas y constantemente mejora su traducción de un idioma a otro. Está aprendiendo a percibir los objetos en una foto. Y, por supuesto, constantemente mejora las respuestas a las consultas cotidianas. De manera muy similar, Amazon ha aprendido a usar el comportamiento colectivo de los humanos para anticipar sus hábitos de lectura y de compras. Es mucho más inteligente que una rata en este aspecto.

Las nubes de computadoras como Google y Amazon forman el centro de aprendizaje para el Super Organismo inteligente. Esta Entidad de nubes abarca más que las funciones de Google e incluye todas las funciones proporcionadas por Yahoo!, Amazon, Microsoft y otros servicios de nube. Esta Entidad se comporta en cierta forma como un animal. La Entidad está en busca fuentes de energía, construyendo plantas de energía alrededor del mundo en puntos estratégicos, contratando a los humanos más inteligentes para que trabajen para ella y le ayuden a ser más inteligente. Entre más inteligente se vuelve, más personas inteligentes querrán trabajar para la Entidad. El dinero es su metabolismo superior: toma el dinero de inversionistas para crear tecnología que llame la atención de los humanos (es decir, anuncios), lo cual a su vez crea más dinero (es decir, ganancias), lo cual atrae más inversiones. Entre más inteligente sea, más atención y dinero fluirán hacia La Entidad.

La inteligencia fabricada es una nueva mercancía en el mundo. Hasta ahora, toda la inteligencia disponible venia de los seres humanos, y todos sus inconvenientes. La Entidad y La Gran Máquina ofrecen inteligencia sin inconvenientes humanos. Al principio, esta inteligencia es más humana que la inteligencia no humana: es la inteligencia derivada de la sabiduría de las multitudes humanas, pero a medida que continúa desarrollándose, esta inteligencia trasciende al tipo de pensamiento humano. Los humanos con gusto pagarán por la inteligencia de la Entidad. Es un tipo diferente de inteligencia. No es artificial, porque se extrae de miles de millones de humanos que trabajan en La Gran Máquina. Es una inteligencia híbrida: mitad huma, mitad procesador de computadora. Por lo tanto, probablemente sea más útil para nosotros. No sabemos cuáles son los límites de su valor. ¿Cuánto pagarías por un genio portátil que supiera todo lo es posible saber?

Con la enorme riqueza producto de su gran inteligencia, La Entidad construye una robusta red que no puede ser apagada. Utiliza su inteligencia distribuida para diseñar tecnologías energéticas más eficientes, más inventos que produzcan riqueza y leyes humanas más favorables para su continua prosperidad. La Entidad está desarrollando un sistema inmunológico para restringir el daño de virus, gusanos y malware a los bordes de su perímetro. Estos parásitos plagan a los humanos, pero no afectarán a las funciones centrales de La Entidad. Mientras que La Entidad busca constantemente procesadores para usar, energía para quemar, cables para llenar, ondas de radio para montar, lo que más quiere y necesita es dinero. Entonces, una prueba de su éxito será cuando La Entidad se convierta en nuestro banco: no solo todos los datos fluirán a través de ella, sino también todo el dinero.

Este gráfico del New York Times del colapso financiero de Octubre de 2008 muestra cómo se sincronizaron los mercados globales, como si fueran un organismo que responde a una señal.

Este gráfico del New York Times del colapso financiero de Octubre de 2008 muestra cómo se sincronizaron los mercados globales, como si fueran un organismo que responde a una señal.

¿Qué tan lejos estamos de esto? “Más cerca de lo que crees”, dicen directamente los directores de Google.

Si construyes una máquina que establezca conexiones entre todas las cosas, acumule toda la información del mundo y entonces pones a trabajar a todas las mentes para en conjunto enseñarle dónde están las conexiones y datos significativos (“¿Quién está buscando a quién?”), al mismo tiempo que implementas algoritmos aparentemente simples que refuercen las conexiones importantes, y mientras que físicamente mueves, optimizas y replicas las estructuras de datos de manera acorde – si haces todo esto llegarás, desde a una posición altamente económica (es decir, rentable), a un resultado, una Inteligencia, que no esta tan lejos como la gente piensa.

– George Dyson

Para lograr todo esto, la Entidad no necesita ser consciente, simplemente inteligente.

Predicción: la mega nube aprenderá más idiomas, responderá a más preguntas, anticipará más acciones, procesará más dinero, creará más riqueza y será más difícil de apagar.

Nivel 4: Un Super Organismo Autónomo Consciente

¿Cómo sabríamos si existiera un Super Organismo Autónomo Consciente? Necesitaríamos un Test de Turing para una Inteligencia Artificial global. Pero el Test de Turing no sería óptimo para este propósito porque está diseñado para detectar inteligencia similar a la humana, y si una conciencia surge a la escala de una mega computadora global, su inteligencia probablemente no será similar a la humana. Es posible que tengamos que recurrir a SETI, la búsqueda de inteligencia extraterrestre (ETI), para orientación. Por definición, es una prueba para la inteligencia no humana. Tendríamos que pasar de la búsqueda en las estrellas a la búsqueda en nuestro propio planeta.

Esta búsqueda supone que la inteligencia que buscamos no es similar a la humana. Puede operar en frecuencias ajenas a nuestras mentes. Un Super Organismo Consciente global podría tener “pensamientos” a un nivel tan alto o de frecuencia tan baja, que podríamos ser incapaces de detectarlo.

En 2002, investigadores analizaron unos 300 millones de paquetes en Internet para clasificar sus orígenes. Estaban particularmente interesados en el muy pequeño porcentaje de paquetes que pasaron por malformados. Los paquetes (el “sobre” del mensaje) están mal formados por hackers maliciosos para bloquear computadoras o por varios errores en el sistema. Resulta que aproximadamente el 5% de todos los paquetes malformados examinados por el estudio tenían orígenes desconocidos: no eran ni de origen malicioso ni errores. Los paquetes ilegibles son simplemente etiquetados como “desconocido”. Tal vez fueron incubados por hackers con objetivos desconocidos para las investigaciones, o por errores que no se encontraron. Pero un paquete malformado también podría ser una señal emergente.

Una prueba estándar para la auto-consciencia en un bebé o un primate adulto es reflejar su imagen en un espejo: cuando logra reconocer su comportamiento en el reflejo como el suyo, es porque ha desarrollado un sentido de identidad. ¿Cuál sería la prueba equivalente para un Internet Inteligente?

Pero incluso antes de pasar una prueba de espejo, una conciencia inteligente adquiriría una representación de sí misma o, más exactamente, una representación de sí mismo. Entonces, una indicación de un Internet Inteligente y consciente sería la detección de un “mapa” de sí mismo. Una “imagen” de sí mismo. Qué hay adentro y qué hay afuera. Tendría que ser un atlas en tiempo real, probablemente distribuido. Parte inventario, parte manual de instrucciones, parte autorretrato: actuaría como un espejo interno. Tendría que poner atención a este mapa. Una prueba sería modificar el autorretrato interno para ver si el resto del organismo resulta afectado. Es importante tener en cuenta que no necesita haber auto consciencia de este mapa. Sería como pedirle a un bebé que se describa a sí mismo.

Mucho antes de que una Inteligencias Artificial Global consciente trate de ocultarse, o tomar el control del mundo, o comenzar a manipular el mercado de valores, o convencer a piratas informáticos para eliminar a sus competidores, será un como un frágil bebé. Su inteligencia y conciencia serán sólo una chispa, incluso si sabemos cómo medirla y detectarla.

Predicción: la nube desarrollará un mapa activo y controlado de sí misma (que incluye un mapa recursivo en el mapa).

¿Por qué es tan importante un Super Organismo?

No tenemos pruebas científicas para la inteligencia general en animales o humanos. Tenemos algunas pruebas para algunas tareas muy limitadas, pero no tenemos mediciones confiables para grados o variedades de inteligencia más allá del rango de las pruebas de coeficiente intelectual normales. ¿Qué diferencia tiene si medimos un organismo global? ¿Para qué tomarse la molestia?

Medir el grado de autoorganización de La Gran Máquina es importante por estos motivos:

  1. Entre más conscientes seamos de cómo se comporta la gran nube de esta Máquina, más útil será para nosotros. Si se adapta como un organismo, entonces es esencial saberlo. Si se puede auto-reparar, sería un conocimiento vital. Si es inteligente, calcular la forma precisa de su inteligencia nos ayudará a nosotros ser más inteligentes.
  2. En general, una máquina más auto organizada es más útil. Podemos diseñar aspectos de la máquina para se pueda auto organizar de mejor manera. Podemos ayudar a su desarrollo al ser conscientes de su crecimiento y la apertura de posibilidades en su desarrollo.
  3. Hay muchas maneras de ser inteligente y poderoso. No tenemos idea del rango de posibilidades que podría tener un Super Organismo tan grande, hecho de mil millones de procesadores, pero sí sabemos que la cantidad de formas posibles es más de una. Al ser conscientes desde el principio del proceso, podremos dar forma al tipo de auto organización e inteligencia que podría tener un Super Organismo global.

Referencias:

Statistical Analysis of Malformed Packets and Their Origins in the Modern Internet (2002)
Atractor Extraño
Traffic Dynamics in Scale-Free Networks
The Dynamics of Internet Traffic: Self-Similarity, Self-Organization, and Complex Phenomena
Ataque de denegación de servicio
Continuo (teoría)
Mula (animal)