Archivo de la categoría: Homo Tecnologicus

Streaming in the edge

CD-300x300

feenelcaos.org se encuentra en el Seminario Internacional de Cultura Digital en Brasil.

Estoy trabajando en la producción audiovisual del evento haciendo el streaming en vivo del mismo.

Sorprende que en Brasil el Ministerio de Cultura sea el amigo y no el enemigo.

Hay ponencias muy interesantes como las de Producciones Doradas o la del director de Steal this film.

Brasil es un modelo mundial de producción de música y software libre del mundo. Miles de computadores con acceso gratis a internet con GNU/Linux están distribuidos por todo el país y la política cultural brasileña promueve fervientemente el uso de estandares abiertos (aunque muchos del Ministerio utilizan todavía Windows)

Aprovechando el nuevo tag video de HTML 5 incorporado por Firefox 3.5 podemos hacer streaming 100% con tecnologías libres.

One sentence streaming:
(capturando via firewire)

sudo dvgrab –format raw -| ffmpeg2theora -a 0 -c 1 -v 5 -F 15 -f dv -x 320 -y 240 –optimize -o /dev/stdout -| oggfwd servidor puerto password /puntodemontaje -n titulo

(capturando via tarjeta de video v4l2)
ffmpeg -f video4linux2 -s 320×240 -i /dev/video0 -ac 1 -f mpeg – | ffmpeg2theora -V 45 -v 0 – | oggfwd servidor puerto password /puntodemontaje

Podemos añadir la sentencia while para que el streaming se reinicie si hay algun problema. Quedaría del siguiente modo:

while true; do sudo dvgrab –format raw -| ffmpeg2theora -a 0 -c 1 -v 5 -F 15 -f dv -x 320 -y 240 –optimize -o /dev/stdout -| oggfwd servidor puerto password /puntodemontaje -n titulo; done;

De este modo nos olvidamos de plugins Flash, players Java y otras tonterias reproduciendo el vídeo directamente con Firefox 3.5 a través del estándar HTML 5.

La revolución no será transmitida,
será strimeada.

El escenario de Deneu

Nunca me habían propuesto algo tan complejo como el espectáculo que llevé a cabo con el grupo Deneu el pasado 7 de agosto.

Merece la pena entrar un poco entre bambalinas para explorar su complejidad.

Este era mi espacio de trabajo:

esquema-vjlot-web
Click para ampliar

La pantalla de tela estaba situada entre público y escenario, de modo que proyectábamos nuestras sombras sobre la pantalla, curioso el efecto de la sugerencia de las formas.
Yo manejaba dos proyectores simultáneamente, uno con cámaras de vídeo con efectos y otro con visuales generativas a partir de la música que se estaba escuchando en ese momento. Con la mesa de vídeo y la controladora MIDI tenía todo el control.

Las cámaras 1 y 2 estaban conectadas directamente a mi Mac. Una me apuntaba directamente a mi de modo que podía jugar con ella con las linternas. Usaba la visual Spheroid modificada de flight404.

esquema-deneu-web
Click para ampliar

La cámara 1 apuntaba directamente a la cara o las manos de Francesc donde la intensidad (brillo) de cada pixel se transformaba en profundidad, junto con una lámpara teníamos la escena reconstruida en 3D. Como el vídeoclip de House of cards de Radiohead pero todo funcionando en tiempo real.

Gracias a mi software P4VJ podía mezclar simultáneamente diferentes visuales en processing, mover la cámara, ajustar la sensibilidad de los golpes…

Francesc cantaba enfocado con la cámara 6 mientras manejaba el Ableton Live, tocaba el teclado, cantaba o manejaba con el Ipod Touch el sintetizador visual Sound Scope Space o el Video Theremin.

Al resto del grupo los encuadraba con el resto de cámaras. Los dos proyectores me permitían la simultaneidad entre las visuales generativas y la imagen real.

No hay vídeo del concierto (¡todo es efímero!), la única forma de experimentar la vida es estando allí.
Pero puedes hacerte una idea del resultado viendo las fotos de la galería o otras fotos que nos hizo un amigo.

Deneu + Vj::lot

deneu-vjlot

El próximo Viernes 7 de agosto de 2009 a las 22:00 realizaré un concierto músico-visual en la terraza del centro l’Escorxador de Elche junto con el grupo Deneu.

Allí experimentaremos con visuales generativas, una pantalla entre grupo y público, dos proyectores, una batería, un bajo, una guitarra, sintetizadores multi-touch, redes wifi transmitiendo datos MIDI, IPods, vídeo en tiempo real, instrumentos visuales, el sintetizador virtual Sound Scope Space, webcams y luces DMX.

También será una buena ocasión para estrenar mi MacBookPro y el software P4VJ. Los temas a tratar serán el fractal, la arquitectura, la emergencia, la multipresencia, la transversalidad y muchas cosas más.

Viatgers d’un aire etern, virtual
Immaterials, som fluir canviant. Fins on tu estàs, efímera.
És massa llarg, ser part del tot.
Som voladors, no som parlants, no som lloc.
Som cançó, vivim al futur. Matèria digital, som.

deneu

Vj::lot + I Hate Party

Cartel I hate party On Citizen kain

Este sábado 9 de mayo podréis ver la continuación del proyecto P4VJ, Procesing for VJing, esta vez con DJ’s de electrónica y minimal.

P4VJ en un software realizado en Processing que escucha la música y reacciona en tiempo real. Los beats y el volumen de la sala transforman la complejidad de las visuales para perdernos en un horizonte de pixeles y bits.
Todo un cambio en el paradigma en la escena VJ. No más loops, no más vídeos, no más renderizar, adiós Windows, adiós Resolume. Bienvenida la reutilización del código, bienvenido Linux, bienvenido el 3d.

Mi propósito es producir un software para usarlo como base en las sesiones de VJ e invitar a la comunidad a crear y compartir el código fuente de las visuales.

Será en la Sala ON de Murcia en la fiesta I Hate Party.

Que está aqui:

ihateplano

ADVERTENCIA:
¡¡¡No apto para epilépticos!!!

ERROR – 104. Error en el sistema

Kernel Panic! ERROR104.com

Una campaña estupenda, pero el mensaje que hay en su web no es muy claro: ¿Qué enviemos una carta a Zapatero? Ya existen los bancos éticos, solo tienes que cambiar tu dinero de banco.

Te has preguntado alguna vez: ¿Cómo utiliza el banco mi dinero? ¿Mi dinero sirve para fabricar armas? ¿Se está utilizando para perjudicar el Medio ambiente? ¿Está financiando cosas con las que no estoy de acuerdo? ¿O sólo quiero rentabilidad?

En el estado español está triodos bank que es el más extendido, y también: Oikocredit, Coop57, y fiare.

Massive Comprehension Machine. BETA

Massive Comprehension Machine. Israel Version

Acabo de lanzar la versión BETA de una aplicación que vengo desarrollando las ultimas semanas:

Massive Comprehension Machine.
Israel Version.

Es una interfaz de navegación de una red semántica generada en tiempo real a partir de decenas de medios de comunicación que operan en Israel.

La idea de está aplicación surgió en el taller de invierno de la ETSA: ARQUITECTURA, URBANISMO Y TECNOLOGÍAS EN EL CONFLICTO PALESTINO/ ISRAELÍ, con Regine Debatty y Hackitectura, partí de una idea inicial a la que le he ido dando forma en las últimas semanas, comprobando hasta donde era capaz de llegar.

Es el paso previo al objetivo final: navegar simultáneamente por 2 redes semánticas que se enfrenten a un mismo concepto real (el problema palestino-israelí) pero abordado desde dos visiones muy diferentes. ¿Pueden las redes semánticas cartografiar el pensamiento? ¿Pueden revelar estructuras que reflejen la forma de ver el mundo?

Es un dispositivo de navegación entre las subjetividades e imaginarios de uno y otro bando, para, también desde la subjetividad del visitante, enfrentarse a la complejidad de uno de los mayores conflictos heredados del siglo XX.

Interfaz
La interfaz está diseñada para que requiera una participación activa por parte del espectador para apartar conceptos en los que no está interesado y/o poder profundizar en los conceptos que se desee investigar. De este modo es partícipe del conflicto y está obligado a hacerse preguntas en todo momento, como qué es importante y qué no. No es una herramienta pasiva de observación, sino de investigación-acción.

Las claves para poder navegar en un grafo de miles de nodos en una pantalla de 800×600 es la introducción de jerarquías. Podemos navegar por la red semántica desde los conceptos que están más presentes, que aparecen más grandes, e ir haciendo zoom hasta nodos más pequeños que han aparecido menos veces en el texto analizado. Los nodos están conectados a partir de diferentes noticias, de modo que las relaciones también son sensibles a la frecuencia con la que aparecen en los medios, de un golpe de vista podemos observar cuales son los conceptos y las relaciones más importantes para la prensa judía en este momento.

En cambio, este método resulta inútil si nuestra investigación parte de algún concepto poco frecuente, ya que para llegar a él tendrían que ser visibles centenares o miles de nodos. Con la interfaz de búsqueda permitimos filtrar los conceptos y partir de un nodo en concreto desde el que empezar a navegar.

Para mejorar la comprensión de las relaciones entre los conceptos y darle a la obra un carácter inmersivo, cada vez que se selecciona un nodo, el sistema reproduce una noticia sobre ese concepto mediante un robot de lectura automática.

¿Por qué cartografiar los medios?
Al mismo tiempo que la guerra por los recursos, como el territorio o el agua, se llevan a cabo, aparecen nuevas guerras mucho más complejas y difíciles de representar: son las guerras del pensamiento.

Al cartografiar los medios, cartografías el conocimiento de miles de personas que parten de esa información para construir su modelo del mundo, de modo que, lo que cartografiamos en realidad es el pensamiento humano.

El escenario de batalla de esta nueva guerra se lleva a cabo en un escenario muy concreto: el cerebro humano de cada individuo que se posiciona frente al conflicto. Las armas también han cambiado, ahora la red se presenta como un arma de implantación masiva de verdad.

En el mundo físico el poder económico puede garantizar la victoria de una batalla. Pero ahora nos enfrentamos a un nuevo mundo con nuevos paradigmas. ¿Puede el dinero ganar una batalla ideológica? Mientras nos hacemos estas preguntas, la visión judía del conflicto aparece en primer plano en los anuncios de Adsense de Google cuando buscamos cualquier concepto relacionado con Gaza, Israel o Palestina y del mismo modo, Israel contrata a cientos de bloguers para que invadan la Wikipedia, FaceBook, Twitter y los foros mundiales con mensajes pro-israelies, además de, por descontado, preparar la Net-War: ataques de hackers israelíes contra Hamás.

¿Cyborg o Inteligencia Artificial?
A pesar de que ya Aristóteles fue pionero en describir un conjunto de reglas que describían una parte del funcionamiento de la mente, no fue hasta 1956 cuando fue acuñado el término de Inteligencia Artificial asociada a la computación por John McCarthy, Marvin Minsky y Claude Shannon. Cuando surgió se afirmaron previsiones triunfalistas que jamás se cumplieron, esto marcó el pesimismo en torno a esta ciencia durante los siguientes quince años.

La visualización de información no es Inteligencia Artificial, a pesar de que se trate la información de forma inteligente. El problema de la comparación entre dos grafos con cientos de nodos actualmente no puede abordarse desde el punto de vista de la Inteligencia Artificial debido a que se trata de un problema NP-Completo, necesitaríamos, al menos, un computador cuántico para hallar la solución. Podemos sólo conformarnos con encontrar soluciones aproximadas.

En lugar de presentar algoritmos matemáticos que determinen las similitudes o diferencias ideológicas a partir de dos redes semánticas, lo que planteamos es cambiar el formato de representación de la información y usar el cerebro humano como computador para revelar estas relaciones. La computación se vuelve orgánica.

La información “real” es la misma, consultando cada uno de los medios de comunicación que viéndola a través de la Massive Comprehension Machine. La diferencia es que nos hacemos valer de un dispositivo que representa la información en un termino medio entre un plano en dos dimensiones (la pantalla) y la estructura cognitiva humana.

Al cambiar el formato de la información con una intención clara, lo que hacemos explícitamente es aumentar la capacidad cognitiva humana sobre un problema en particular.

¿Que he aprendido?
Durante el desarrollo de la aplicación pensaba que la red semántica iba a ser muy variable de un día para otro. Si bien la red reacciona inmediatamente a las noticias de actualidad, resulta curioso que exista una información “de fondo” que siempre está ahí. Por ejemplo, el holocausto está siempre presente en la actualidad de Israel, y hay una guerra abierta contra cualquiera que presente el más mínimo signo de anti-semita, las conclusiones que saco de la prensa israelí es que la contra-información es siempre más relevante que la información. Están a la espera de ciertas noticias del mundo para oponerse rápidamente. Resulta divertido que pueda sacar estas conclusiones en pocas semanas y sin haber leído un sólo periódico de Israel. También resulta curioso que de entre los miles de palabras analizadas nunca podamos encontrar la palabra “Palestina”.

Para poder cargar la aplicación en el navegador hay ciertas características que lamentablemente están restringidas de momento, la información visualizada es estática (actualizada el 15-Feb) y el robot que lee las noticias es muy poco orgánico. Todas estas carencias están solventadas en la versión ejecutable (Win & MACOS & Linux)

Podéis usar la versión reducida en:
http://mcm.feenelcaos.org
Mousewheel: Zoom.
LeftClick: FIX node.
RightClick: RELEASE node.

Cada vez que clickeis en un nodo oireis una noticia diferente sobre ese nodo, para que el sonido funcione el ordenador no debe estar reproduciendo ningun otro sonido, musica, etc.

Todos los comentarios son bienvenidos.

De la web 2.0 a la escasez artificial

He redactado este texto mezclando mi redacción con la contextopedia de David de Ugarte. Un texto claro para explicar en un sólo documento los retos, problemas y desafíos de la Internet de nueva generación.

:: Al principio fue el Hipertexto

Las nuevas tecnologías y el cada vez más creciente acceso a las mismas por la mayoría de la población han provocando profundos cambios en la producción de contenidos dominado hasta ahora por los primeros modelos de comunicación en red. La forma en la que se crean y se gestionan estos contenidos nos está empujando hacia una idea de libertad que no es, ni mucho menos, la que inicialmente muchos piensan.

El inicio del hipertexto provocó una transformación en nuestra forma de interpretar la información desconocida hasta ahora, donde significantes y significados se entrelazaban en complejas redes de links. En la web de las puntocoms el poder para elegir qué se producía y qué se seleccionaba era básicamente el mismo viejo modelo creado por los mismos sujetos, pero con el soporte de los nuevos medios. El autor corporativo, el macroportal, seleccionaba y producía sus propios contenidos.

Las páginas más visitadas en los inicios de internet eran la edición digital de los periódicos de tirada nacional. Hasta aquí nada había cambiado, sólo el formato. Los viejos aparatos de producción masiva de significado seguían intactos manteniendo a la multitud conectada. Esta gran masa social estaría relegada al papel de consumidor pasivo.

El siguiente paso, el camino hacia la plurarquía informativa debía pasar, por fuerza, en un acceso universal, no ya a la información, sino a la producción de información. A estas alturas todo el mundo conoce ya el concepto Web 2.0 enunciado por Tim O’Reily. O’Reily venía a recoger bajo la forma de un eslogan lo que algunos economistas habían venido teorizando a partir de las propias tendencias de la web: el fin de la vieja división productor/consumidor.

:: La Web 2.0

El concepto Web 2.0 articula la respuesta a una pregunta:

¿Quién hace los contenidos?.

Y es cierto que en ése sentido la Web 2.0 representa la separación entre producción y distribución de la información, sin embargo, la web, como todo espacio social, no se articula sobre la producción, sino sobre la distribución, o mejor dicho sobre el poder para establecer filtros en la selección de información. Bajo toda arquitectura de información se esconde una estructura de poder.

La producción se atomiza y pasa a los usuarios. Pero la cuestión central, el poder del filtro, sigue abierta y bajo la etiqueta 2.0 se ocultan topologías de red distintas y por consiguiente estructuras de poder opuestas.

Topologias de red

:: Nuevos modelos para nuevos medios: Abundancia vs Escasez

La ambigüedad del concepto Web 2.0 nace entre la lógica de la abundancia y la generación artificial de escasez: la formación de un único y gran output igual para todos los usuarios a partir de los muchos inputs que estos incluyen.

Así pues, bajo web 2.0 entran por ejemplo Flickr, Youtube o del.icio.us, que con su sistema de redes personalizadas de usuarios nos permite no sólo compartir, sino sobre todo recibir el output de lo que nuestra red única y personal valora como los mejores enlaces en cada momento… es decir del.icio.us fabrica abundancia (tantos o más outputs, resultados del sistema, que inputs a escala masiva). En cambio Digg o Wikipedia representan todo lo contrario: cualquiera puede subir cualquier cosa pero el resultado es único e igual para todos.

Pero ¿por qué sólo un output? del.icio.us o Reddit Friends demuestran que la selección colectiva puede ser tan abundante y diversa como la personal si se permite a los usuarios elegir su propio grupo de selección, crear su propia comunidad para hacer el trabajo.

Es decir, parece lógico que me interese la selección de noticias del día de algunos de mis amigos más que el resultado global de la votación de los que pasaron -o viven apostados en- Digg o, al consultar la Wikipedia, ver los artículos de un tema como quedaron tras el control de grupos determinados de expertos, instituciones o simplemente amigos en cuya opinión sobre ciertos temas confío. Tendría mi Wikipedia con lo que es relevante para mi garantizado por aquellos en cuya opinión confío y no por un grupo cuya visión no tengo por qué compartir. O podría tenerlo todo y seleccionar personalmente entre las distintas aportaciones.

El modelo moderno de la Wikipedia o Digg por muy democrático que sea, no puede resultar sino frustrante, ya sea una enciclopedia virtual o un sistema de selección de titulares. Un único output, una única verdad, un único resultado a partir de todos y para todos. El que lleguen a un único resultado agregado por un sistema deliberativo o por un sistema de decisión más o menos complejo, no cambia nada.

La lógica de la abundancia, en cambio, aparece cuando la estructura de producción y costes vuelve innecesario dirimir colectivamente qué se produce y qué no. El máximo de satisfacción de todos y cada uno se obtiene cuando todos y cada uno obtienen una respuesta personalizada.

El ejemplo clásico es la comparación entre los periódicos y la blogsfera. En un periódico, con su superficie de papel limitada, publicar una línea más de un artículo implica reducirlo en otro como en un juego de suma cero. En cambio en la blogsfera, un espacio donde el coste de un post extra es cero, que cualquier blogger publique su información no merma las posibilidades de publicación de otro.

Desaparece simplemente por tanto la necesidad de dirimir colectivamente qué se publica y qué no. Frente a la lógica de la escasez que genera la necesidad de la decisión democrática, la lógica de la abundancia abre la oportunidad de la plurarquía.

En términos sencillos la lógica de la abundancia se puede resumir bajo una pregunta retórica:

¿Qué sentido tendría votar un uniforme igual para todos si cada cual pudiera vestir como quisiera gratis?

:: ¿Plurarquía?

La plurarquía aparece espontáneamente en las redes sociales distribuidas y se hace posible en estas redes al imperar en ellas la lógica de la abundancia: la opción de cada uno no merma las posibilidades de los demás. En democracia sin embargo, la escasez impone la decisión colectiva a la individual.

Según algunos autores:

todo actor individual decide sobre sí mismo, pero carece de la capacidad y de la oportunidad para decidir sobre cualquiera de los demás actores

Por ello:

hace imposible mantener la noción fundamental de democracia, donde la mayoría decide sobre la minoría cuando se producen diferencias de opinión.

En un sistema pluriárquico la toma de decisiones no es binaria. No es sí o no. Es en mayor o menor medida. Alguien propone y se suma quien quiere. La dimensión de la acción dependerá de las simpatías y grado de acuerdo que suscite la propuesta. Aunque la mayoría no sólo no simpatizara sino que se manifestara en contra, no podría evitar su realización.

:: Algunas características de las redes 2.0

El debate sobre la web 2.0 no podría ser más pobre, más moralizante. ¿Qué se forman oligarquías participativas? Evidente, pero no se trata de enunciar el problema para hacer una condena moral. Se trata de entender como los efectos red subyacentes la generan inevitablemente si la estructura social está basada en la generación democrática de escasez. El discurso político de la web 2.0 es que todos pueden participar, pero a todos se les filtrará.

  • Fidelización
    Así, en la llamada Web 2.0, el principio de generación de escasez ha sido ampliamente utilizado como forma de fidelización e incentivo a los propios usuarios más participativos.

    En muchos servicios basados en este principio, estos usuarios recibían un poder/prestigio particular mediante el diseño de sistemas de agregación cuyo objetivo no es generar un output, a cada usuario según sus necesidades.

    Estos sistemas de agregación (en unos casos mediante votación, en otros mediante un proceso deliberativo) están en la base de la naturaleza contradictoria de la Web 2.0.

  • Efecto RED

    Se conoce como efecto red lo que se produce cuando cada nuevo usuario añade valor a una red por el hecho de unirse a la comunidad de usuarios.

    Las tecnologías de comunicación son el ejemplo típico de efecto red.

    Para el tercer usuario de la red telefónica, acceder a la red suponía poder hablar con dos personas. Pero para el cuarto, poder hacerlo con tres… y así sucesivamente. Cuantos más miembros tiene la red de usuarios más valor tiene para un no miembro pertenecer a ella… y por otro lado menos aportaría al valor a la red si se sumara a ella (el valor es decreciente).

    Son tecnologías con claros efectos red: el teléfono, el email o el fax, pero también lo fueron los procesadores de texto mientras usaron formatos propietarios cerrados o los sistemas de vídeo doméstico.

    A través de las experiencias de las comunidades formadas en la web 2.0 descubrimos dos tipos de comunidades virtuales afectadas por el efecto red de maneras muy diferentes:

      Aquellas en los que el valor de la red no orienta mi tipo de participación. Es decir, porque haya más usuarios de fax no decidiré simplemente recibirlos y me dará pereza enviarlos. Pasa así en todas las tecnologías de comunicación uno a uno.
      Las basadas en la construcción colectiva de un repositorio público y finito de información como fin en si mismo. Cuanto más cerca esté la comunidad del límite (por ejemplo, de tener todos los restaurantes listados y comentados, en caso de una guía) menores son los incentivos para un uso activo y mayores para los de uno pasivo.

    En consecuencia todos los servicios cuyo objetivo sea la creación de un repositorio publico de información común finito, la lógica de los incentivos inevitablemente conducirá a la formación oligarquías participativas relativamente estables.

  • Oligarquías participativas

    El mismo concepto de comunidad abierta dedicada a la construcción de un repositorio público y finito de información genera por cómo actúan los incentivos en entornos de fuertes efectos red, la aparición de oligarquías participativas, grupos relativamente estables de usuarios que aparecen en cualquier comunidad abierta dedicada a la construcción de un repositorio público y finito de información que necesariamente protagonizarán y orientaran tanto la comunidad como su producto.

    Así en los servicios y comunidades centrados en proyectos ideológicos (enciclopedias, noticias, etc.) lo que originalmente se plantea como un servicio público neutral, irremediablemente irá tomando una línea editorial y generando por tanto conflicto con los nuevos usuarios.

:: Construyendo el nuevo modelo

Si la Web 2.0 es una adaptación del viejo modelo, entonces ¿Cual debe de ser el siguiente paso? Si la web 2.0 responde a a la pregunta de ¿Quién hace los contenidos? La web 2.1 debe de responder a la siguiente pregunta:

¿Quién o cómo se elige la información que me llega?

Una respuesta que algunas veces el concepto 2.0 no sabe -o no quiere saber- como responder… En un cibermundo hiperinformado, el poder del filtro, de la selección, del acceso a la internet invisible, se vuelve cada vez más importante. El sistema de poder no reside en el cómo sino en el para qué, y si el para qué es dar lugar a un único resultado social, un único resultado igual para todos, no será el propio usuario quién ponga y/o elija los filtros que generen el contenido que él lee.

En el modelo social de la blogsfera el poder de filtro está en el usuario. La estructura distribuida de la red permite a cada usuario “subir lo que quiera”, dado que es el propietario y garante de su nodo. De ese modo garantiza que cualquiera pueda también seleccionar cuanto quiera.

La aparición de la blogsfera supuso la muerte definitiva del sistema puntocom de portales y grandes proveedores de contenido que replicaba en versión electrónica el ecosistema mediático descentralizado del siglo XX. La estructura distribuida de la blogsfera imposibilitaba en la práctica la aparición de filtros externos. La determinación de la agenda pública se abría y las consecuencias para las formas tradicionales de poder se hacían evidentes.

Esta generación artificial de escasez es por definición insatisfactoria: la diversidad de preferencias y valores es irreductible y como ha visto incluso la industria, cultivar la diversidad genera ganancias sociales frente a la agregación centralizada de preferencias. No se trata de hacer portales democráticos monotemáticos, se trata de construir redes que produzcan conocimiento.

El debate sobre la web 2.x, sobre las estructuras sociales que genera es fundamental. La web 2.0 y la web 2.1 son el gran laboratorio social de hoy.

Comparativa de servicios 2.0 y su complemento o superación 2.1… no se puede negar que algo está cambiando en el espíritu y orientación de los nuevos servicios web

Web 2.0 Web 2.1
Fotos Flickr y Picasa Picnik
Vídeo Youtube y Google Vídeo Jumpcut
Blogroll Weblogs.com Feevy
Alarmas Twitter Mugshot

Por cierto que los servicios 2.1 no parece que vayan a ser tan masivos como los 2.0. Son servicios para bricoleurs. Algunos, como Picnik de hecho corren sobre los servicios 2.0 previos. Otros como Jumpcut sólo serán atractivos para los autores de vídeos, para los que suben sus propios materiales, no para los que los graban de la televisión, por ejemplo.