martes, 30 de octubre de 2007

Mashups: tomar prestado, crear algo nuevo

La palabra "mashup" proviene del acto de crear remix musicales. La WEB 2.0 colonizó el término, convirtiéndolo en un método para crear sitios a partir de aplicaciones ajenas, combinándolas para generar un producto totalmente nuevo... este uso de distintas fuentes de forma unificada es lo que se conoce como aplicación web híbrida o mashup.

Continúa...


En la cultura popular, la noción “mashup” quiere decir muchas cosas, que van desde los remix musicales hasta los posillos para el té, en partes del Reino Unido. Pero más recientemente, la web se ha apropiado del concepto.

Para el programador y gerente de Productos Confianze, Carlos Gaona, la Internet es “como el Aleph de Borges, al parecer ahí está todo lo que fue, es y será”.

En ese sentido, señala que “lo difícil no es buscar, sino encontrar. Los buscadores nos asisten en la tarea de encontrar datos, pero los mashups permiten transformar datos en información”. Ahí está la gracia. Y el programador agrega: “estos cruces, son finalmente una herramienta poderosa para la creación de nueva información, o ‘información emergente’”

Un mashup es un sitio o aplicación web que combina datos de múltiples fuentes, que antes no estaban relacionadas. Los mashups utilizan interfaces de comunicación abiertas, proveídas por terceros y actualizadas en tiempo real.

En esencia, la idea es tomar prestados trozos de otros y cruzarlos con el fin de producir un servicio novedoso y unificado. Los mashups rinden honor a la vieja frase: “el todo es más que la suma de las partes”.

Usualmente, los mashups se nutren de APIs (como Flickr, Twitter, YouTube, Amazon Web Services, etc), y los métodos utilizados incluyen sindicadores web (RSS o Atom), Screen scraping, y otros.

La fórmula más común es mezclar información geográfica (frecuentemente Google Maps) y diversos datos sobre esos lugares. Acá un ejemplo.

El uso en Chile es más bien escaso, sin embargo en otras latitudes es explosivo. “En Estados Unidos los mashups son relativamente populares, y las empresas de tecnología apuestan por su crecimiento”, señala Gaona.

Según el joven fundador de Confianze, los mashups han cruzado 2 etapas. La primera comenzó hace unos años, y consiste en la liberación o publicación de estándares abiertos para distintas plataformas.

“Esto es un requisito clave para la construcción de mashups: quienes tienen fuentes de datos deben entregar "interfaces" para que otros desarrolladores puedan conectarse con tales fuentes de datos. Google lideró esta área y tuvo un impacto. Existe un gran número de mashups de geolocación, que utilizan Google Maps, por ejemplo”, explica.

La segunda etapa de las aplicaciones híbridas, tiene que ver con facilitar la creación de mashups a los usuarios finales, y que el propio lector de este texto diseñe el suyo propio. Otra cara de la Wev 2.0...

¿Quiere aprender a hacer mashups? No es tan difícil: aquí un amigo español explica cómo cruzó la información del Ministerio del Medio Ambiente de su país con la API de Google Maps, y obtuvo esto. Si quiere aprender, acá hay un curso (si sabe inglés)....

Además, si quiere hacer un mashup, por suerte para usted, varias empresas se han dado el trabajo de hacerle el camino más fácil. Google es líder en la materia, y junto otros, “como Yahoo!, que lanzó Pipes, permiten crear mashups utilizando una interfaz gráfica, sin necesidad de programar”, explica Gaona.

Algunos editores:
“Probablemente en el futuro veamos la maduración de estos servicios, y la incorporación de su tecnología en servicios existentes. Por ejemplo, los mismos medios de prensa tienen una gran oportunidad, con herramientas que permitan a sus lectores crear el medio que quieran leer, mezclando aplicaciones, sitios, feeds y blogs en una experiencia informativa única”, concluye Carlos Gaona.

Finalmente, antes de hacerse un mashup, píenselo dos veces, no se vaya a estar convirtiendo en un “nerd”.

Algunos ejemplos y links relacionados:

Mobilidad

Sí, con “b”, aludiendo a la palabra en inglés “mobility” que significa movilidad, es decir, la capacidad de movimiento.
Este concepto, si bien abarca todo lo que son los aparatos y su capacidad de moverlos, ligado a la portabilidad y al wireless (conexión sin cables), es principalmente la definición de una clase de aplicaciones que nos permiten interactuar cuando como usuarios estamos en permanente movimiento (lugar y tiempo).
Podemos distinguir dos dimensiones de la mobilidad:

APARATOS

Claramente las novedades en hardware apuntan a la mobilidad. Desde los evidentes notebooks, pasando por las palms, los pendrives, la tecnología bluetooth, el wi-fi hasta llegar a los I-Phones o Zunes.
El escritor especialista en Web 2.0, Ajit Jaokar, determina las características que hacen a un dispositivo “móbil”

  • Es transportado por el usuario
  • Tiene la batería incorporada
  • Pequeño por definición
  • Probablemente funcional pero con un enfoque principal
  • Con mecanismos anexos limitados (Ej. teclado pequeño)
  • Personal y personalizado pero no factible de ser accesorio de vestir.


SERVICIOS DE INTERNET

Si respecta a la red apreciamos una vasta lista de aspectos “móbiles”. Lo primero y fundamental es la capacidad de acceso a una conexión a Internet, contando con esto podemos usar servicios que por excelencia se mueven junto a nosotros, acá se anotan la mensajería instantánea (Ej. MSN), Skype o el claro ejemplo del microbloging de Twitter, tanto en su actualización desde la web como desde el celular. Se trata principalmente de sistemas que no requieren acceso mediante el browser.

Un servicio “móbil” de la Web 2.0 lo podemos distinguir por lo siguiente:

  • Es un servicio, no un software convencional (packaged software)
  • Funciona a diversas escalas
  • Es masivo
  • El servicio maneja una permanente base de datos
  • La base de datos se enriquece mientras más gente usa el servicio
  • Los usuarios se consideran “co-desarrolladores” dada su significativa contribución
  • El servicio se define como “inteligencia colectiva” y es por definición “sobre el nivel de un dispositivo singular”
  • Las conductas “por defecto” de los usuarios son capturadas y registradas
  • La información es “con algunos derechos reservados”, los usuarios comparten.


En este escenario podemos advertir un creciente uso de la tecnología “móbil” en nuestro día a día, pero el paso completo lo daremos cuando estas dos dimensiones de la mobilidad funcionen en completa sintonía y así entrar a una suerte de “era móbil”. Y es que no todos los aparatos móviles que usamos tienen necesariamente una conexión con la Web 2.0, como nuestros celulares, agendas electrónicas, reproductores de música o relojes. El desafío 2.0 entonces consiste en incorporar a estos dispositivos los servicios web, los celulares parecen ser los más adelantados en este sentido: está el ya mencionado Twitter y los avances que las compañías telefónicas ya han anunciado hace un tiempo para sus aparatos, como MSN, la capacidad de leer el correo electrónico o los juegos en línea. También está el caso del I-Pod Touch que viene equipado con wi-fi y Safari.

Pero si de mobilidad se trata es el I-Phone el aparato más destacado, éste aparte de cumplir con su función de teléfono, viene con un sistema Mac OSX actualizable que viene con Safari, también brinda la posibilidad de usar mensajería instantánea, tiene tecnología wi-fi, EDGE y bluetooth 2.0 además de permitir la reproducción de audio y video.

Cuando llegue por completo la “era móbil”, la Web 2.0 será parte del día a día de todos.

lunes, 29 de octubre de 2007

WIKIS: INTERACTIVIDAD, INSTANTANEIDAD Y ACCESIBILIDAD

¿Has visitado alguna vez la enciclopedia digital Wikipedia? Es muy probable que tu respuesta sea afirmativa, y es que esta página en más de alguna ocasión ha servido como fuente de información en la búsqueda de variados temas. Desde datos históricos, hasta información biográfica de series de televisión se pueden encontrar en esta “súper enciclopedia” que utiliza un particular sistema de recolección de datos: la colaboración. Wikipedia no es una página común cuyo contenido muestra el trabajo de un equipo de personas, sino que es una plataforma interactiva, en la que cada uno de nosotros puede colaborar en la construcción de esa inmensa base de datos. Estamos hablando de uno de los sitios más populares en el mundo que utilizan la tecnología colaborativa WIKI.

Al igual que nuestra fabulosa Wikipedia existen muchos otros sitios que se construyen como wiki, esto significa que permite que se escriban artículos colectivamente (co-autoría) por medio de un lenguaje de wikitexto editado mediante un navegador. Una página wiki singular es llamada "página wiki", mientras que el conjunto de páginas (normalmente interconectadas mediante hipervínculos) es "el wiki".
Los wikis tienen la ventaja de ser algo mucho más sencillo y fácil de usar que una base de datos, además que se caracterizan por la facilidad con que las páginas pueden ser creadas y actualizadas. En general no hace falta revisión para que los cambios sean aceptados. Esto significa que, la mayoría de los wikis están abiertos al público sin la necesidad de registrar una cuenta de usuario. A veces se requiere hacer login para obtener una cookie de "wiki-firma", para autofirmar las ediciones propias. Otros wikis más privados requieren autenticación de usuario.
Los wikis suelen ser diseñados con la filosofía de que sea fácil corregir los errores, en vez de que sea difícil cometerlos. Los wikis son muy abiertos, aún así proporcionan maneras de verificar la validez de los últimos cambios al contenido de las páginas. En casi todos los wikis hay una página específica, "Cambios Recientes", que enumera las ediciones más recientes de artículos, o una lista con los cambios hechos durante un periodo de tiempo. Algunos wikis pueden filtrar la lista para deshacer cambios hechos.

Esta tecnología es una práctica innovadora que ha expandido su uso, por ejemplo, a las empresas, las que utilizan este medio para que el conocimiento adquirido por los trabajadores pueda ser compartido y complementado por todos, se utiliza como una herramienta que favorece la innovación.
Para los que estudian los wikis personales son una excelente herramienta para realizar trabajos colectivos desde la distancia: Al mismo tiempo que haces tu aporte escribiendo en tu página wiki, tu compañero de trabajo lo ve y asiste, edita o complementa con su contenido. Como vemos, la tecnología wiki nos permite una enorme accesibilidad para potenciar conocimiento y compartirlo, corregir errores de otros colaboradores y así, construir plataformas de acceso ilimitado y colectivo. Si no tienes tu wiki, no pierdas tiempo y accede a esta manera colaborativa de construir información.

PageRank: La búsqueda del más popular

Posicionar una página electrónica es uno de los pasos más importantes a la hora de generar redes en la web, pues para ser visto hay que generar contactos y viceversa. En el medio virtual, congestionado por diferentes espacios comunicacionales, tópicos e intereses, apareció un sistema encargado de ordenar el gallinero web y con ello determinar cuales son las páginas más visitadas por los internautas. Con ustedes, de los creadores de Google: PageRank.

Paulina Roblero T.

PageRank, cuyo nombre original es “Method for node ranking in a linked database” nació inspirado por el modelo Science Citation Index (SCI). Éste fue creado por Eugene Garfield para el Instituto de información científica (ISI) en los Estados Unidos durante la década del 50. Lo que el SCI hacía era establecer una asignación objetiva de méritos suponiendo que los investigadores, cuyo número de publicaciones y/o referencias bibliográficas en otros trabajos científicos es más alto, ayudaban al desarrollo de su área de investigación. Los investigadores que eran más citados recibían becas y dinero para continuar con la exploración científica.

Por ello, de alguna forma similar, el sistema PageRank ayuda a determinar que importancia, popularidad o jerarquía tiene una página web. La idea nació en la Universidad de Standford y fue creada por los fundadores de Google: Sergey Brin y Larry Page, en 1998, y hasta el día de hoy es utilizado por este buscador.

Lo que hace PageRank es confiarse de la democracia que existe dentro de la web. A través de la extensa estructura de enlaces (o links) que maneja, establece el valor – de forma numérica – que una página puede tener. Los enlaces que hay de una página a otra permiten que Google los interprete como votos. Es decir, si la página 1 tiene un enlace a la página 2, se cuenta como si la página 1 votara por la página 2 ¿Se entiende?

Eso si, no todos los links son reconocidos o tomados en cuenta por Google, ya que filtra y descarta los enlaces de páginas dedicadas exclusivamente a colocar enlaces. Estas son conocidas como “granjas de links” (link farms).

Para la clasificación Google comprende que una página no puede controlar los links que apuntan hacia ella, pero que sí puede determinar los enlaces que coloca hacia otras páginas. Así que tener links que vengan de las “granjas” no es problema, pero si lo será si el usuario coloca links de páginas penalizadas.

Por eso la importancia de tener un PageRank alto es la posición que va a tener la página dentro de los resultados de la búsqueda. La barra de Google va de 0 a 10. Siendo 10 el máximo PageRank posible, aunque son muy pocos los sitios que tienen esta calificación. Tener calificación cero significa que el sitio ha sido castigado o aún no ha recibido una calificación de PageRank.

De todas formas Google ve más allá de la cantidad de votos “emitidos” o el número de enlaces que una página puede recibir. Lo que también analiza es la página que emitió el voto. O sea, si una página de las “grandes” emitió un voto, como por ejemplo: Emol, este valdrá muchísimo más que un voto hecho por una página “cualquiera” además es tan grande el poder que tienen las páginas mediáticamente posicionadas que con sus enlaces ayudan a las páginas menos populares. Como en todas las votaciones el ganador es el que logra conseguir más adeptos. Pero es un mejor ganador aquel que consigue los votos de las páginas mejor posicionadas, pues (como ya lo mencionamos) estos tienen un mayor peso. O sea, si la página 1 que tiene un enlace a la página 2, pero la página 1 tiene un PageRank bajo no ayudará de mucho. La idea es ser popular con los peces gordos de la web. Es como: “dime con quién andas y te diré quien eres”, pero virtual.

Estas son algunas de las páginas que tienen PageRank 10:
  • Yahoo!
  • Microsoft
  • Apple
  • Adobe
  • Google
  • NASA
  • Macromedia
Si quieres saber el ranking de una página en particular visita el Directorio PageRank: http://www.directoriopr.es/

domingo, 28 de octubre de 2007

PORTABILIDAD

La portabilidad es un concepto tan libre para definir como para el que la usa. Según Wikipedia es una característica de ciertos programas que les permite ser utilizados en distintos ordenadores sin que precisen modificaciones de importancia. Aunque también la portabilidad se define en instrumentos portátiles que nos permiten dicho traslado de información, tales como los pendrive, microprocesadores o memorias SD.

En el software, la portabilidad se define como su dependencia de la plataforma en la que corre. La portabilidad es mayor cuanto menor es su dependencia del software de plataforma.

Si un software puede ser compilado en plataformas diversas (x86, IA64, amd64, etc), dicho software se dice que es multiplataforma.

En algunos casos el software es "independiente" de la plataforma y puede ejecutarse en plataformas diversas sin necesidad de ser compilado específicamente para cada una de ellas, a este tipo de software se le llama interpretado, por que necesita de un interprete para ser ejecutado en las diferentes plataformas.

Mucho se ha hablado de algunos esfuerzos para lograr la portabilidad de software entre diversas plataformas. Diferentes aproximaciones existen, de las cuales dos se distinguen por que han mostrado muy interesantes resultados: la portabilidad a nivel de código binario (Java, por ejemplo) y la portabilidad a nivel de código fuente.

La primera, aunque es técnicamente muy retadora e interesante, ha mostrado, quizá como resultado de lo mismo, muchos problemas para su adopción generalizada. De tales problemas se distinguen cuatro:

  1. la eficiencia del código,
  2. las dificultades en la adopción generalizada de estándares,
  3. la estabilidad de las aplicaciones,
  4. el difícil crecimiento.

Por otra parte, la portabilidad a nivel de código fuente es un esfuerzo que cuenta con una mucho mayor experiencia, tanto en el rubro de soluciones técnicas concretas como en el de adopción de estándares. Tiene también desventajas, entre las cuales se distingue la necesidad de recompilar las aplicaciones para cada plataforma de interés. Sin embargo, contra esa desventaja existe un número de ventajas que la hacen aparecer, creemos, como la forma racional y viable de lograr la portabilidad real.

A manera de ejemplo, en materia de interacción de las aplicaciones con el API del sistema operativo existe un estándar tan difundido y aceptado que se ha vuelto exigencia: se llama Posix. Si se escriben aplicaciones en C o C++ que, en su dependencia del sistema operativo se ciñen a lo que dicta el estándar, su portabilidad en ese sentido es completa.

Por otra parte, cuando se trata de los aspectos particulares de la compilación en cada ambiente de desarrollo, existe en Unix un conjunto de herramientas de autodetección del entorno de desarrollo y de la preparación de los parámetros para la compilación, que simplifican en grado sumo tal labor y la vuelven, en la mayor parte de los casos, trivial. Dichas herramientas, entre otras cosas pueden hacer lo siguiente:

  • detección del sistema operativo,
  • identificación del compilador,
  • detección de las librerías instaladas,
  • detección de herramientas auxiliares,
  • definición de la estructura de directorios,
  • detección de las capacidades del usuario que está llevando a cabo el proceso.

A cambio de la aparente dificultad en la recompilación de las aplicaciones, se obtiene como beneficio la eficiencia de un código que se ejecuta siempre en su plataforma nativa, con la funcionalidad idéntica en todas la plataformas.

El software libre ha demostrado su calidad, muy por encima de las correspondientes aplicaciones comerciales, de la siguiente forma:

  • presenta menor número de fallas (bugs),
  • es más rápida la respuesta de los cuerpos de desarrollo a las fallas (soporte verdadero),
  • brinda a los usuarios más amplitud en el soporte,
  • dada su amplia vinculación con la academia y a la investigación, incorpora de ellas todos sus avances y tendencias, anticipándose a lo meramente comercial.

NANOTECNOLOGÍA

La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a una escala menor que un micrómetro, a nivel de átomos y moléculas. Tal manipulación se produce en un rango de entre uno y cien nanómetros.

La nanotecnología es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala.

La nanotecnología habla de máquinas pequeñas al extremo de lo invisible capaces de construir edificios, detener enfermedades, pelear guerras y producir alimentos.

*Memoria:

En un laboratorio de IBM en Zurich, uno de los que ayudó en la invención del microscopio AFM de 1986, se trabaja en la miniaturización a nivel nanómetro del registro de datos. El sistema de almacenamiento se basa en un conjunto de 1024 agujas de AFM en una matriz cuadrada que pueden escribir bits de información de no más de 50 nanómetros de diámetro. El mismo conjunto es capaz de leer la información e incluso reescribirla.

La capacidad de guardar información a esa escala es una noticia para el mercado, pues multiplica la cantidad de información que se puede almacenar en un área determinada. El sistema actual de registro, basado en la memoria magnética, puede guardar alrededor de dos gigabits por centímetro cuadrado. Con unidades de almacenamiento provistas de matrices gigantescas, con millones de agujas, se puede lograr un almacenamiento en el orden de los terabytes, como 40 veces lo que está disponible hoy comercialmente.

*Computadoras ubicuas:

La miniaturización a nivel nanométrico apunta a la inserción de potentes computadoras en relojes de pulsera y teléfonos celulares que posean un disco rígido. Se supone que la tecnología del "Miriápodo" (como un ciempiés) proveerá de discos rígidos de una capacidad en el orden de los gigabytes y de un tamaño de un centímetro cuadrado. Este nanodrive de tecnología AFM requerirá menos energía para su operación que los de tecnología magnética, un factor crítico en los productos portátiles.

*Nanotecnología puede crear una red de Internet basada en energía solar.

Investigadores de Canadá han demostrado que se puede utilizar la nanotecnología para conseguir un Internet de máxima potencia basado en la potencia de luz. Este descubrimiento puede llevar a una red 100 veces más rápida que la actual.

Profesores de la Universidad de Carleton diseñaron una sustancia que combinaba buckyballs (una nano-estructura compuesta de 60 átomos de carbono C60 estructurados en un espacio cerrado y perfectamente simétrico, especialmente como superconductores), con un tipo de polímero. Esta combinación logró crear una capa clara y lisa, diseñada para lograr que las partículas de luz captase la trayectoria de otras partículas.

Sargent y Chen, estudiaron las propiedades ópticas de esta nueva sustancia híbrida. Descubrieron que la sustancia era capaz de procesar datos transportados en ondas de telecomunicaciones, los colores infrarojos de luz utilizados en cables de fibra de óptica. Según Sargent, un sistema basado en la comunicación vía fibra óptica podría enviar señales por la red global en un pico-segundo, resultando un Internet 100 veces más rápido.

viernes, 26 de octubre de 2007

RSS: Noticias al Instante!

¿Quién no se ha cansado de visitar cientos de páginas webs en busca de noticias o para ver si se han actualizado? Al parecer muchos, pero este cansancio y pérdida de tiempo hace años que se está dejando atrás gracias a la llegada del RSS, un sistema que permite agrupar noticias con programas u otros servicios agregadores de feeds.


Un poco de Historia

El Really Simple Syndication, más conocido como RSS, sentó sus bases iniciales en 1995, cuando el cientifico indú Ramanathan V. Guha junto a otros ingenieros de Apple crearon el MSF ( Meta Content Framework), otro tipo de archivo que es antecesor al actual que conocemos como RSS.

Las investigaciones de Guha y sus colaboradores continuaron investigando los alcances de su desarrollo y en 1999 crearon el primer RSS para Internet. Éste se colocó en el Portal de My.Netscape.com y al darse a conocer masivamente, otros cientificos comenzaron a trabajar en la nueva forma de publicar información. Es así como Dan Libby, ya en julio de 1999, perfecciona el sistema RSS y lo denomina de esta medida (RSS significa "Rich Site Summary").

Con los años, el perfeccionamiento del RSS ha seguido su curso y hasta ahora, son 3 las versiones de este archivo que se pueden encontrar en los diferentes sitios webs que ofrecen el servicio: RSS 0.91, RSS 1,0 y RSS 2,0.

¿Cómo se leen los RSS?

Existen vaios softwares gratuitos y servicios a través de Internet que nos permiten la lectura de los feeds de las distintas páginas. Estos programas o servicios se llaman "agregadores", que son capaces de interpretar el lenguaje de los feeds de cada sitio y visualizarlos de una forma acorde para la lectura del usuario.

"Bloglines" es uno de los agregadores de feeds online más famosos del mundo. A través de este sitio, donde uno puede registarse de manera gratuita, el usuario puede agrupar sus sitios favoritos y mantenerse al tanto de sus actualizaciones.
Y como no podía faltar, Google también cuenta con un servicio Online para leer los feeds de cualquier sitio del mundo. Google Reader es el nombre de este sitio, que permite a los usuarios agregar sus sitios mediante su cuenta Google , por lo que cualquiera que posea un correo de Gmail, tiene acceso a Google Reader.

También exiten diversos servicios que permiten insertar Feeds de otras páginas en nuestros sitios webs. Uno de ellos es el que ofrece Euroresidentes, donde uno puede poner una fuente RSS y èste genera de inmediato un còdigo html que se copia y pega fàcilmente hacia el sitio web.

¿Cómo puedo crear un RSS para mi sitio web?

A simple vista, realizar un RSS para nuestro sitio web se ve como una tarea dificil, pues contempla codigos HTML de no mucho uso. Pero existen guías en Internet que enseñan paso a paso a crear nuestros propios servicios de sindicación web. A continuación, una lista con algunas guías rápidas para hacer nuestros propios feeds:

- Guía Fácil del RSS

- Guía de Euroresidentes

- Video Tutorial de RSS

Aparte de estas guías, existen programas que crean automáticamente los feeds que queramos para nuestros sitios webs. Entre ellos se destacan RSS Builder y ListGarden RSS Feed Generator, entre otros, los que se pueden descargar de forma gratuita y poseen una interfaz muy fácil para usuarios básicos de Computación.

jueves, 25 de octubre de 2007

SEO una forma de liderar Internet

Tu página web tiene los días contados si no la pones en los primeros lugares de los buscadores. Para ello existe SEO o diversas técnicas que permiten lograr que los buscadores web tengan a nuestros portales en los primeros lugares de sus rankings.

SEO o Search Engine Optimization logra que los buscadores de Internet (tanto grandes como pequeños) sitúen una página determinada en una posición privilegiada dentro de sus resultados de búsqueda de acuerdo a determinados términos y frases claves.

La aplicación de SEO se ha convertido en un elemento fundamental sobretodo para páginas de ventas de productos y servicios, ya que las pone en un lugar favorecido ante la competencia.

Es por ello que inclusive hay portales dedicados a la prestación de servicios SEO como los chilenos de posicionamiento.cl y destaca.cl que asesoran estratégicamente a todos los interesados en que los contenidos de la página estén diseñados de tal forma que sean linkeados en primera opción. Algunos métodos son el asesoramiento en el nombre de dominios, trabajo sobre meta-tags y trabajo en altas manuales en los directorios o buscadores.

Pero si no quieres gastar demás los propios buscadores como Google y Yahoo ofrecen este servicio de posicionamiento de forma gratuita.

Otros tipos de técnicas SEO, prácticas y fáciles que se aconsejan desde que diseñas tu página son:

Conseguir que otras web de temática relacionada enlacen con tu página (posteándoles, por ejemplo)

Hacer que tu portal sea lo más accesible posible (demasiado javascript, flash media hacen que tu página no sea accesible para todo tipo de computador).

Crear títulos únicos y descripciones pertinentes del contenido de cada página (siempre describe cuál, puntualmente es el contenido de tu página).

Actualizar la página con contenido original de calidad (respeta la temática de tu página y trata de mantenerla actualizada con información de calidad).

Es fundamental que quienes utilicen a los buscadores respeten las cláusulas y condiciones de uso, sino podrán ser considerados como una forma de spam conocida como spamdexing. Esta última posiciona artificialmente los sitios de acuerdo a una palabra clave o index lo que no sucede en Google por ejemplo que hace su análisis de enlaces en virtud a la reputación y los buenos contenidos de estos.

Irene Padilla

Copyleft, un arma para la libertad de difusión

Para los cibernautas el término Copyleft puede resultar más que familiar. Para el común de las personas, que sólo nos remitimos a utilizar Internet para algunos momentos de ocio, la palabra Copyleft no nos es tan natural, de hecho, creo que muchos nunca la habían oído… hasta ahora. Es por ello que a través de las siguientes líneas intentare dar a conocer las principales características de este mecanismo para regular la tecnología, llamado licencias copyleft de Creative Commons.

Copyleft, también conocida como copia permitida, hace alusión a un conjunto de derechos que se pueden aplicar a diversos trabajos de arte, cultura y hasta programas informáticos, es decir, cualquier tipo de producción creativa. Para el periodista español Pablo Romero, Creative Commons y sus licencias son una respuesta a la rigidez del 'copyright' tradicional, aunque no es contrario a él, sino que lo complementan. Es decir, con las licencias Creative Commons es el autor quien decide qué derechos de su obra se reserva y cuales no.

Según la enciclopedia Wikipedia el concepto nace en la década del ’70 cuando Richard Stallman elaboraba un intérprete de Lisp que interesó a la compañía Symbolics, éste accedió a proporcionarles una versión del intérprete bajo dominio público, sin restricciones iniciales. Con el pasar del tiempo la empresa amplió y mejoró el software original, pero cuando Stallman quiso acceder a dichas modificaciones, la compañía se negó. Debido a esto Stallman ideó su propia licencia de derechos de autor llamada Licencia Pública General de GNU. Con esta licencia se buscaba que los programas gozaran de plena libertad al ponerlos en dominio público y sin derechos reservados.

De esta manera copyleft, unida al software libre, se convirtió en la primera licencia que entrega al autor la plena libertad de elección de protección, libertad de copia, modificación y circulación de sus obras, lo que permite gran difusión cultural y además el reconocimiento ideológico y económico a los autores de las publicaciones.

La utilización de estas licencias es muy simple. Lo que se debe hacer primero es elegir la licencia más adecuada para el trabajo que se publicará, luego Creative Commons entrega una copia estándar del documento requerido el cual se encuentra en tres versiones: una en lenguaje jurídico, otra el lenguaje común y una última en versión html que facilita la labor de quienes buscan en la web contenidos con esta licencia.

Es así como estas licencias permiten a los autores difundir gran parte de sus obras a un número notable de personas, las que pueden modificarlas sin que se le desconozca la autoría al creador inicial. Un ejemplo del uso de estas licencias en Chile, lo constituye la publicación de la revista digital Tapiz (http://www.tapiz.cl/) en donde se pueden encontrar fotografías, música, gráfica independiente entre otras producciones más, las cuales pueden ser descargadas y utilizadas por los cibernautas gracias a que todo lo que ahí se publica tiene licencias CC.


En definitiva las licencias CC constituyen una de las iniciativas más importantes a nivel internacional que pone a disposición de artistas, autores, compositores y creadores en general, un conjunto de licencias flexibles dirigidas a establecer un sano equilibrio entre los derechos de autor y el acceso a la cultura, aprovechando el potencial de Internet y de las nuevas tecnologías digitales en la difusión de la información y del conocimiento.

Convergencia de Medios: el futuro del periodismo

La convergencia de medios es un proceso en continuo desarrollo, que anima y obliga a los medios de comunicación tradicionales a tomar decisiones alejadas de sus cómodos sillones para unirlos al mundo y su actual dirección.

El auge y continua masificación de la tecnología digital ha obligado a los medios de comunicación tradicionales –diarios, televisión, radio- y a los periodistas que trabajan en ellos a replantear la manera como entregan la información.

Ya no basta con la antigua comunicación unidireccional que acostumbrábamos. En la era digital aparece un nuevo concepto para el periodismo, y quien no le tome el peso que merece corre el grave riesgo de quedar obsoleto para siempre.

En este sentido, la convergencia de medios es un concepto muy importante y que ha sido analizado en diversos seminarios de periodismo. Sin dudas uno de los "expertos" en el tema es el profesor Ramón Saleverría, director del Laboratorio de Comunicación Multimedia de la Universidad de Navarra en España.

Según su artículo "¿A donde se dirige la convergencia de los medios?" , esta convergencia es un proceso multidimensional, pues al menos afecta a cuatro esferas distintas de los medios: la tecnológica, la empresarial, la empresarial y a los contenidos.

En la esfera tecnológica, la infraestructura que utilizan los periodistas, y también sus herramientas de producción, se han trasladado a lo digital, lo que permite la multiplicidad de formatos.

Por otro lado, la esfera empresarial en tanto empresas de comunicación han dejado de ser entes aislados, y cada vez más "convergen" los distintos medios, y se articulan entre si. En este sentido internet ha sido una plataforma excepcional, que permite por ejemplo a los canales de televisión y a las radios tener textos escritos, mientras que los medios escritos publican imágenes, audios, videos, etc.

Lo anterior por supuesto ha provocado cambios en el ámbito profesional del periodismo, que toma nuevos rumbos. Hoy en día se habla de un "periodista multimedia", que necesita tener incorporadas nuevas técnicas de búsqueda y producción de información acorde a la convergencia de los medios. Ya no basta con escribir bonito o tener buen gusto audiovisual. Hoy en día el periodista avanza a cada vez ser más "multitarea" y "multiplataforma".

Además, el proceso de la convergencia afecta a la esfera de los contenidos. En estos tiempos, el lenguaje periodístico se ha visto enriquecido por la hipertextualidad dentro de su producción, hibridando los distintos códigos y creando "una nueva retórica periodística multimedia".

Como vemos, la convergencia de medios es un proceso complejo, al que los periodistas y los medios de comunicación deben tomar atención rápidamente. Sino, es probable que queden anquilosados en sus antiguos y polvorientos escritorios.

Y como gran ejemplo de todo lo anterior, gracias este proceso podemos tener al profesor Ramón Saleverría en audio e imágen, a través del buen Youtube:



*actualización!

Terminada la conferencia de Dan Gillmor en Televisión Nacional de Chile, Julio Catanni, profesor del diplomado de Periodismo Multimedia de la Universidad de Chile, da brevemente su parecer respecto a la convergencia de medios en nuestro país y a los desafíos de este proceso.

Convergencia.

“La convergencia da la posibilidad que, dentro de una nota, la persona comente, que esa noticia tenga un vínculo con un archivo de audio que puede ser una cuña o bien una entrevista relacionada con el tema. Y además encontrar con un video, que puede ser audiovisual o incluso un diaporama. Yo creo que eso aún falta en nuestro país, somos un poco timoratos. “

Atraso

“Creo que aún estamos atrasados en nuestro país, y eso se da en toda Latinoamérica. En Argentina, el Clarín hay algunas cosas, pero en español hay poco. Existe mucho más desarrollo en Inglés, por eso es importante que vengan personas como Dan Gillmor para orientarnos.”

Desafíos.

“Ahora, la pregunta que yo todavía me hago es cómo convencer a los editores y a los avisadores -en el caso de los diarios tradicionales-, que se tiene que generar mas contenido desde la perspectiva de la convergencia, pues eso implica más horas hombre, equipos multidisciplinarios, lo que significa más lucas. Entonces, se necesita que exista un modelo de negocios que sea atractivo para los avisadores. Es ese ahora el desafío.”






Videocast: televisión participativa

La impresionante velocidad con que avanzan las tecnologías relacionadas con Internet no nos da tiempo para disfrutar más de un mes la novedad que nos ofrece un sitio multimedial. Esto, porque al mes siguiente ya existe una nueva plataforma virtual, más entretenida, con interfaz mejorado, con más aplicaciones y mayor accesibilidad web, que nos tendrá descubriendo sus nuevas potencialidades.

Y así, primero fueron los foros, Google y los weblogs, luego vino el sonido con los podcast y el video con Youtube y el videocasting, y el incremento del número de personas con acceso a estas tecnologías ha sido notable. Los usuarios de la Web 2.0 escriben y publican sobre todo tipo de temas: literatura, política, arte, ciencia, deportes, música, etc. No pretenden competir con los periodistas, sino simplemente dar su opinión y compartir con otros sus conocimientos. Todo, en medio de la discusión del lugar que ocupan los internautas en el desarrollo de estas tecnologías.

La cuestión es que los usuarios de Internet leen los contenidos elaborados por otros usuarios y los valoran, en ocasiones, incluso más que aquellos elaborados por profesionales. Así también con los podcast y y videopost, fragmentos de audio o de audio y vídeo donde los autores cuentan una historia, comentan una noticia o hacen videoarte y la difunden a través de sistemas de sindicación de contenidos, RSS. Ya no se necesita ser una megaestrella para hacerse conocido, ni hace falta tener una super cámara. Lo que la está llevando ahora son los ipod de última generación. Al menos en Europa.


ITunes se convierte ahora en un gran agregador de contenidos sindicados de audio y vídeo. Algunos son gratuitos y otros pagados, pero es ciertamente es ahí donde hay que estar si quieres que alguien vea tus creaciones.

Hagamos un video

Hace algunos años tres jóvenes pensaron que podía ser una buena idea crear un lugar en donde la gente pudiera alojar videos caseros reduciéndolos considerablemente de tamaño. Crearon Youtube ¡y claro que fue una buena idea!, sin embargo, todavía no ha sido posible generar un fenómeno como el de los blogs, en donde cada usuario, además de colaborar en una red social con millones de personas, posea su propio sitio para alojar sus videos.

Para hacerlo, primero se requiere una cámara o un ipod con video. En su defecto una cámara digital o un celular con cámara pueden servir, pero disminuye notoriamente la resolución. Para ambos casos, se necesitan recursos y eso lo que hace la diferencia. También se requiere alfabetización digital, que la gente se familiarice con los conceptos de moda en Internet y que aprenda a usar las plataformas que ofrecen estos servicios gratuitos a los usuarios. Y esta es la gran ventaja de la Web 2.0: ahora el usuario puede publicar sus comentarios y videos en Internet, con un aspecto profesional y sin depender de ningún software instalado en su ordenador.

Para Gabriel Mérida, ayudante del diplomado en periodismo digital de la Universidad de Chile, la proliferación del video casting en el continente “es complicado por el poco avance de las últimas tecnologías en cuanto a video personal. El ipod con video todavía es escaso en latinoamérica”. Sostiene, sin embargo, que “Chile es el país con mas penetración en tecnologías ligadas a Internet, creo que es un campo que va a ir creciendo aquí porque Chile es una sociedad super visual, y eso explica el éxito del fotolog, por ejemplo”.

En Latinoamérica hay ejemplos donde se experimenta con videocasting como hipertextual TV que es un experimento de la red de blog hipertextual en Ciudad de México, que son temáticos para diferentes áreas. Por ejemplo en Gizmología.com una chica hace revisiones de productos tecnológicos y ha tenido bastante éxito, los soportes son mucho más baratos y ella no es una estrella de televisión, es una chica como cualquiera que tiene simpatía y habilidad para comunicar.

En chile no hay que desconocer el experimento de canal10.cl, se trata de un portal informativo conducido por una chica que lee las noticias, sumamente escotada y que también ha tenido un relativo éxito.

El videocast puede ser visto entonces como un modelo de televisión participativa en donde grupos de personas pueden organizarse para crear contenidos televisivos con diferentes intereses. Si tu sueño es estar en la tele, esta puede ser tu alternativa.

miércoles, 24 de octubre de 2007

Accesibilidad: Políticas de integración en la Web

Internet se plantea como un espacio de libre acceso a la información para toda la comunidad. Pero ¿Qué posibilidades de integración brinda la red para personas que padecen discapacidades?



Durante muchos años, las políticas públicas buscaron soluciones para eliminar las brechas digitales, concepto que la comunidad asociaba a las diferencias socio-económicas que garantizaban a algunos el acceso al ciberespacio, mientras excluían a los sectores sociales más vulnerables.

Continúa...




Pero la brecha digital no sólo correspondía a la posibilidad de acceder a un computador con conexión a Internet. Para algunos sectores de nuestra población, la conexión con el ciberespacio poseía limitantes mayores. Las páginas web no estaban adaptadas para usuarios con discapacidades físicas, mentales o técnicas. La web debía poseer estándares mínimos que aseguraran el acceso de todas las personas a sus contenidos.

El concepto de accesibilidad se integraba a los requisitos básicos de las páginas web y se establece como parte de las políticas públicas del área digital, que pretenden considerar al total de la población.

Dentro de las instituciones más importantes se destaca a la organización internacional pionera World Wide Web (W3C), donde mediante un trabajo conjunto entre funcionarios y usuarios de Internet se pretende guiar las formas de hacer Web permitiendo un desarrollo máximo de su potencial a través de la elaboración de protocolos y pautas que aseguren el crecimiento del ciberespacio. Por esto, desde 1994 se han desarrollado 90 pautas y criterios cuyo principal objetivo es la interoperabilidad web al publicar estándares abiertos para lenguajes web, buscando evitar la fragmentación de Internet.

En nuestro país, comenzó a gestarse en el año 2002 la Norma Técnica para el desarrollo de Sitios Web de los Órganos de la Administración del Estado o Decreto 100, política que se establece dentro de la tendencia de fomentar el Gobierno electrónico, razón por la cuál el acceso debe estar garantizado a todos los ciudadanos.

Actualmente y a un año de publicada esta normativa, se cumple el primer plazo para contar con los requerimientos más básicos, que consisten en las partes más técnicas del diseño web, lenguajes o nomenclaturas de direcciones. Para finalmente y entre otras cosas, dar paso en el 2008 a la generación e implementación de la Guía de Accesibilidad para Discapacitados en Sitios Web, iniciativa impulsada por el Fondo Nacional de Discapacidad (Fonadis).


Vínculos de Interés:


  • http://es.wikipedia.org/wiki/Accesibilidad_web
  • http://www.w3c.es/
  • http://www.modernizacion.cl/1350/article-126436.html
  • http://www.webstudio.cl/blog/
  • http://www.guiaweb.gob.cl/guia/capitulos/tres/accesibilidad.htm

VIDAS VIRTUALES






Un blog o bitácora en línea es un sitio web actualizado periódicamente. Su autor puede escribir sobre su vida o sobre un tema particular.


Un diario virtual. Una “bitácora”. La propia vida transformada en ceros y unos. Pero no siempre. En un BLOG el o los autores pueden contar lo que les sucede en el día a día o concentrar sus esfuerzos en desarrollar un sitio específico, como de cultivos hidropónicos .
El plus de este medio es que los lectores pueden comunicarse con el autor a través de comentarios o post, quien a su vez responde a sus interlocutores. Se genera así una conversación con hilos que queda registrada en el propio formato blog.

Hay blogs de tipo:
· Personal
· Periodístico
· Empresarial o Corporativo
· Tecnológico
· Educativo
· Políticos

Datos históricos del Blog

De las comunidades digitales como USENET se pasó a las conversaciones con hilos en los `90, gracias a los programas para crear foros.

El término WEBLOG fue acuñado por Jorn Barger en 1997.

La evolución de las herramientas permitió que muchos pudiesen publicar y mantener un blog, sin necesitar conocimientos técnicos. El uso de los blogs se difundió desde 1999.

La abreviación BLOG nación de la división que hizo Peter Merholz al generar la frase we blog en 1999, la que pronto ganó popularidad y hay se utiliza como nombre y verbo.

Ya en el 2002 el blogging era un fenómeno tan fuerte que aparecen manuales técnicos y las escuelas de Periodismo comienzan a investigarlo.

Herramientas que alojan blogs

· Open Diary 1998· Brad Fitzpatrick comenzó Live Lournal en 1999.
· Andrew Smoles creó Pitar .com en 1999
· Evan Williams y Meg Hourihan lanzaron blogger.com el mismo año y fue adquirido por Google en 2003.

Blogósfera Chilensis

Desde el 2006 los voluntarios de la blogósfera se asocian en la agrupación chilena de blogs.
Actores, políticos y gente común y corriente se mezclan en la web. Algunos destacados son:

· los periodistas Augusto Góngora, Mauricio Hoffman, Alejandra Valle, Alvaro Bisamas, Andrea Palet
· el ex ministro Andrés Palma
· el cientista político Patricio Navia
· Jorge Schaulsohn
· el actor Héctor Noguera
· Sebastián Piñera
· el senador Carlos Cantero
· el alcalde de Peñalolén Claudio Orrego
· Roberto Arancibia
· Leo Prieto

En fin, hay tanto que decir, pero debo actualizar mi blog. ¡Hasta pronto!

Artículos Relacionados
Bloggeros destacados

En colegios privados se sancionan alumnos por mal uso de blogs y fotologs.

Blogs ¿Nacimiento del periodismo cuidadano?

Craigslist : Encuentra lo que quieras.

Craigslist no sólo es el sitio de anuncios clasificados más exitoso de internet, sino que también se ha convertido en una de las más grandes comunidades en línea a nivel mundial. Desde muebles, trabajos , casas y amores, todo puede ser encontrado en la "lista de Craig".


Craigslist es una página web que ofrece un espacio para la publicación de anuncios clasificados gratuitos de todo tipo: empleo, vivienda, de parejas, etc. Extremadamente sencilla y simple en su diseño, Craigslist está al servicio de millones de usuarios, los cuales publican, buscan, venden, compran, debaten y se relacionan.

El sitio es usado por más de 30 millones de personas al mes (sólo Estados Unidos concentra a 25 millones de esos usuarios) que llegan a ver más de 8.000 millones de páginas. Con esto, Craigslist se instala en el séptimo lugar de las páginas más visitadas de la Web en USA, compitiendo directamente con Yahoo o Google. A nivel mundial, esta gran “feria de las pulgas virtual” se posiciona en el puesto 34.

Sus principales dueños y miembros de la mesa directiva son Craig Newmark –fundador, hoy dedicado al servicio al cliente del sitio-, Jim Buckmaster –director-, y la compañía eBay –con 25% de las acciones, desde 2004-.


Con más de 10 millones de nuevos anuncios por mes, Craigslist es el servicio número uno del rubro (y no sólo de Internet).


“LA LISTA DE CRAIG”

Craiglist empezó en 1995 cuando Craig Newmark sintió la necesidad de crear una lista de correos electrónicos para informar a sus contactos sobre los eventos más interesantes de la ciudad de San Francisco. Cuando su lista de CC (mensaje de e-mail copiado a varios destinatarios) creció, la tuvo que mover a un servidor más grande, convirtiéndola en una página online, donde más gente pudiera contribuir con sus propios anuncios.

Craig Newmark , fundador de Craigslist

La popularidad de Craigslist creció de “boca en boca”, debido a que los usuarios encontraron en ella el espacio ideal para los anuncios más diversos.

Con un diseño extremadamente sencillo y esquemático, Craigslist parece ser aburrido. Pero las apariencias engañan: varios de sus usuarios han podido encontrar al amor de su vida, u hombres desafortunados han recibido la oferta de miles de mujeres. Tantas historias increíbles han surgido trás simples anuncios clasificados, que era el material perfecto para un documental: 24 Hours on Craigslist.


SINOPSIS DE "24 HOURS ON CRAIGSLIST"


ORGANIZACIÓN DEL SITIO

El modo en que se distribuye los contenidos es a través de un directorio de ocho categorías –cada una con subdivisiones- ordenadas espacialmente en la pantalla:

-Comunidad
-Vivienda

-Empleos
-Contactos (en la cual destacan las subcategorías de “estrictamente platónico” o “rienda suelta”)
-Para la venta
-Foros de discusión
-Servicios
-"Pitutos" (trabajos ocasionales)

En gran parte, es una web libre que permite casi cualquier anuncio, de las más diversas temáticas. Pero como esto es comunidad, son los usuarios los moderadores principales: Craigslist cuenta con un sistema de puntuación para que sean los propios lectores los que decidan lo que es admisible y lo que no.

Es tal el éxito de Craigslist, que hoy ya opera en más de 450 ciudades del mundo, entre ellas Santiago. Y, aunque funcione con millones de anuncios, cientos de foros de discusión y otros tantos millones de usuarios, Craigslist tan sólo opera con 25 empelados.


LOS PESOS DE CRAIGSLIST

La característica fundamental de Craigslist es que sus anuncios se publiquen gratis. Ese fue, y es, el objetivo de su fundador, Newmark: servir a la comunidad, y olvidar el lucro. Por eso es que usan el dominio ORG, y precisan en el sitio: “es un símbolo de la naturaleza relativamente anticomercial de Craigslist, así como nuestra misión de servicio y no de la cultura empresarial”.

Esta sería la razón que mantiene a Craigslist alejada de la publicidad y auspicios de grandes empresas, como su preferencia por la utilización de un software libre.

Pero, ¿Cómo se financian? Su única fuente de ingreso es el cobro por anuncios de empleo en siete ciudades como San Francisco –la más cara, 75 dólares por oferta publicada-, Boston, Nueva York, Washington, etc., y por las listas de alquiler de departamentos en Nueva York -10 dólares-. El resto, es todo gratis.

Aunque Craigslist no difunde su información financiera, se estima que sus ingresos anuales han crecido de 10 millones en el 2004 a 150 millones de dólares en 2007. Una parte de esas ganancias se destina a pagar a los 25 empleados de Craigslist; todo lo demás, se dona.

EL AMOR POR CRAIGSLIST

La fuerte atracción que Craigslist genera en millones de usuarios se puede explicar por:

-facilidad para publicar anuncios

-navegación simple y rápida.

-claro orden en categorías y subcategorías.

- No existen gráficos complicados o contraseñas que memorizar.

-es anónimo –cualquiera puede visitarlo sin necesidad de registrarse-

-calidad en el servicio al cliente – el mismo dueño, Craig Newmark, maneja esta parte-.

Redes P2P: Compartiendo en la Red


Desde que Internet se hizo masivo en Chile y el mundo, una de las prácticas más habituales de los usuarios ha sido compartir archivos de distintos tipos. En un primer momento se hicieron populares los sitios para descargar música, mayoritariamente en formato MP3; lo que se masificó con la llegada de Napster, programa pionero en redes P2P (peer to peer). Este software fue lanzado en 1999, y ya para febrero de 2001 había alcanzado los 13,6 millones de usuarios alrededor del mundo. Su éxito radica en que fue el primer programa de popularidad masiva que permitía compartir archivos MP3 entre usuarios de forma fácil y gratuita.

La experiencia Napster terminó a fines de 2001, luego de una fuerte arremetida judicial de las compañías discográficas para resguardar el derecho de autor y las licencias. Al final, Napster fue obligado a pagar más de 30 millones de dólares a las disqueras. Sin embargo, y como muchos lo suponían, la habilidad de compartir archivos no se acaba con la clausura de un programa sino que es una cualidad de Internet, con lo que pronto aparecieron software similares como Ares, Morpheus, Kazaa, LimeWire, entre muchos otros. Este fue el inicio de los sistemas de distribución de archivos entre pares, o P2P, como se le conoce en el mundo cibernético.


Continúa...


En términos simples, un sistema peer to peer (se podría traducir como de igual a igual) es en una red que no tiene clientes ni servidores fijos, sino que más bien consiste en una serie de usuarios que actúan simultáneamente como clientes y como servidores de los demás usuarios de la red. Es decir, se rompe con el tradicional y estático esquema cliente-servidor, para pasar aun sistema interconectado de iguales que comparten todo tipo de archivos de audio, video, texto, software y datos en cualquier formato digital.

Además, las redes P2P administran y aprovechan el uso de banda ancha de los demás usuarios de la red con el fin de obtener un mayor rendimiento en las conexiones y en las trasferencias. De hecho, los sistemas P2P funcionan mejor en la medida que existan un mayor número de usuarios conectados; que es lo contrario que ocurre con los sistemas servidor-cliente, donde el exceso de usuarios pueden saturar el servido y hacer más lenta la descarga.

La filosofía de los sistemas P2P se podría explicar con la premisa de que todos los usuarios deben compartir para que la red se mantenga. Incluso, esto ha llevado a algunas redes 2P2 a crear una especie de sistema meritocrático para sus usuarios, en donde el que más comparte, más privilegios tiene en cuanto accede de forma más rápida a un mayor número de contenidos. Los usuarios que no comparte, ponen en riego el funcionamiento de la red, pues limitan los posibles contenidos.


Diferentes redes 2P2

En términos técnicos, se podría clasificar en 3 grandes grupos los software 2P2: los que actúan de manera centralizada, descentralizada y mixta. En las redes 2P2 centralizadas, existe un solo servidor que centraliza los intercambios, almacena la información y hace de punto de enlace entre los usuarios. Lo malo es que este sistema, aparte de limitar la privacidad de los usuarios, puede verse saturado debido a la existencia de un único servidor. Algunos ejemplos de este tipo de redes son Napster y Audiogalaxy.

Por su parte, las redes 2P2 descentralizadas (llamadas también “redes 2P2 puras”), que a la vez son la más comunes, no requieren de un servidor que centralice los intercambios. Esto permite que los mismos usuarios sean quienes almacenen la información, actuando como clientes y servidores a la vez. Se produce un tipo de comunicación directa de usuario a usuario con la ayuda de un tercer usuario que actúa como nodo. El programa Ares Galaxy es un buen ejemplo de este tipo de redes.

Para finalizar, están las redes 2P2 mixtas, que si bien actúan con un servidor central, este no almacena información ni conoce la identidad de los usuarios. Debido a que el servidor no almacena información, los nodos son los encargados de hospedar la información que permite al servidor central reconocer los recursos que se desean compartir, para luego compartirlos con los usuarios que lo solicitan. El servidor no comparte ningún tipo de archivos a ningún usuario. Esto le da la ventaja de funcionar aunque el servidor se caiga, pues el grupo de usuarios y nodos sigue en contacto a través de una conexión directa entre ellos. El software Bittorrent es un ejemplo de este tipo de redes.


Problemas Legales

El innovador sistema P2P es usado por miles de millones de usuarios alrededor del mundo, y ha generado toda una revolución respecto a las posibilidades de compartir, de forma rápida y gratuita, todo tipo de archivos, la mayor parte de estos de forma ilegal. Esto ha llevado a las empresas discográficas y cinematográficas a crear estrategias para hacer frente a estos programas que amenazan parte de sus utilidades.

Algunas empresas han interpuesto sendas querellas para intentar frenar y legislar el uso de los sistemas de intercambio de archivos, lo que ciertamente no ha dado los resultados esperados. Esto ha obligado a las compañías a tomar una nueva postura frente a la imposibilidad de controlar legalmente los contenidos de Internet. Compañías como Warner Bros o la BBC, empezaron a ver el P2P como una alternativa a la distribución convencional de películas y programas de televisión, ofreciendo parte de sus contenidos a través de estas tecnologías.