viernes, 27 de junio de 2014

Redes inalambricas

LAN INALAMBRICO


Las redes LAN (redes de área local) inalámbricas le permiten conectar sus computadoras sin alambres ni cables. Con una red LAN inalámbrica, los empleados pueden acceder de manera fácil y cómoda a documentos, correo electrónico, aplicaciones y otros recursos de red, de modo que puedan recorrer sus instalaciones. Para ello, las redes LAN inalámbricas usas ondas de radio que permiten que los dispositivos móviles se conecten y comuniquen dentro de un área determinada.

Beneficios de las redes LAN inalámbricas

Las redes LAN inalámbricas ofrecen beneficios tanto de corto como de largo plazo entre las que destacan:

Comodidad: Todas las computadoras portátiles y muchos teléfonos móviles están equipados con la tecnología WiFi necesaria para conectarse directamente a redes LAN inalámbricas. Los empleados pueden usar una red LAN inalámbrica para acceder en forma segura a los recursos de red desde cualquier lugar en sus instalaciones.

Movilidad: Los empleados pueden permanecer conectados a la red a través de una red LAN inalámbrica, incluso cuando no están en sus escritorios. Las personas en reuniones pueden acceder a documentos y aplicaciones con una red LAN inalámbrica. Los vendedores pueden usar una LAN inalámbrica para buscar en la red datos importantes desde cualquier lugar.

Productividad: Las redes LAN inalámbricas ofrecen al personal y otras personas un cómodo acceso a información y aplicaciones importantes de la empresa. Los visitantes (tales como clientes, contratistas o proveedores) pueden usar la red LAN inalámbrica para acceder en forma segura como usuarios temporales a Internet y a sus datos comerciales.

Facilidad de configuración: Como las redes LAN inalámbricas no requieren tender cables físicos, se pueden instalar en forma rápida y económica. Con las redes LAN inalámbricas también es más fácil llevar conectividad a lugares de difícil acceso, como bodegas o plantas de producción.

Escalabilidad: Generalmente, las redes LAN inalámbricas pueden ampliarse con equipos existentes, mientras que las redes cableadas pueden requerir cables y otros materiales adicionales.

Seguridad: Controlar y administrar el acceso a la red LAN inalámbrica es importante para su éxito. Los avances en tecnología WiFi proporcionan una sólida protección, para que sólo las personas que usted permita puedan acceder fácilmente a sus datos.

Costo: Puede costar menos operar una red LAN inalámbrica, que elimina o reduce los costos de cableado durante los traslados de oficina, reconfiguraciones o expansiones.
Uso de una red LAN inalámbrica en su empresa.

Estas son algunas de las ventajas que las redes LAN inalámbricas ofrecen a las empresas:

  • Mayor movilidad y colaboración: los empleados que usan redes LAN inalámbricas pueden recorrer sus oficinas o ir a un piso diferente sin perder su conectividad. De manera similar, la tecnología de voz sobre red LAN inalámbrica les otorga comunicaciones de voz itinerantes.
  • Mayor capacidad de respuesta: una red LAN inalámbrica puede mejorar el servicio al cliente conectando a los empleados con la información que necesitan.
  • Mejor acceso a información: una red LAN inalámbrica permite a las empresas proporcionar acceso en áreas que serían difíciles de conectar con una red cableada.
  • Expansión de red más fácil: las empresas que necesitan agregar empleados o reconfigurar oficinas con frecuencia pueden beneficiarse de la flexibilidad que ofrecen las redes LAN inalámbricas.
  • Mejor acceso de usuarios temporales: las redes LAN inalámbricas permiten a las empresas proporcionar acceso inalámbrico seguro a Internet a usuarios temporales, como clientes o partners comerciales.
Redes FDDI (Fiber Distributed Data Interface)
Las redes FDDI o Interfaz de Datos Distribuida por Fibra es un conjunto de estándares ISO y ANSI para la transmisión de datos en redes de computadoras de área extendida mediante CABLE DE FIBRA OPTICA. Esta red se basa en la arquitectura token ring y tiene una comunicación tipo FULL DUPLEX. Esta red puede abastecer a miles de usuarios y suele ser empleada como backbone para una red de área amplia. 

Funcionamiento:

El funcionamiento de una red FDDI se basa en dos arquitectura token ring, en cual una de ellas se apoya en caso de que la principal falle. En un anilla el trafico de datos se produce en dirección opuesta al otro anillo. Utilizando solo 1 anillo esta red llega a tener una velocidad de 100 Mbps y un alcance de 200Km. Utilizando los dos anillos la velocidad se duplica pero el alcance se reduce lo cual tendríamos una velocidad de 200Mbps pero con una alcance de 100KM. 
La forma de operar una red FDDI se basa en el tamaño de sus anillos sin embargo el mayor tamaño de sus anillos conduce a que su latencia sea superior y mas de una trama puede estar circulando por el mismo anillo a la vez.

Caracteristicas:

La red FDDI tiene un ciclo de reloj de 125 MHz y utiliza un esquema de codificación 4B/5B que permite al usuario obtener una velocidad máxima de transmisión de datos de 100Mbs. Con FDDI es posible transmitir una trama de red o diversas tramas de tamaño variable de hasta 4500 bytes durante el mismo acceso.

Historia:

Las redes FDDI comenzaron a ser desarrolladas por el comité de estándares ANSI X3T9.5 en 1983 y estas fueron mejorando hasta culminar con SMT en 1994. La razón de la existencia de las redes FDDI fue de construir una LAN alternativa a ethernet y token ring que ademas ofreciese una mayor fiabilidad. Hoy en día debido a sus superiores velocidades , costos y ubicuidades se prefiere utilizar fast Ethernet y Gigabit Ethernet en lugar de FDDI.


GPON
La Red Óptica Pasiva con Capacidad de Gigabit fue aprobada en 2003-2004 por ITU-T en las recomendaciones G.984.1, G.984.2, G.984.3, G.984.4 y G.984.5. Todos los fabricantes de equipos deben cumplirla para garantizar la interoperabilidad.

Este nuevo estándar surgió con el fin de establecer nuevas exigencias a la red:
·        Soporte de todos los servicios: voz (TDM, tanto SONET como SDH), Ethernet (10/100 BaseT), ATM,…
·        Alcance máximo de 20 km, aunque el estándar se ha preparado para que pueda llegar hasta los 60 km
·        Soporte de varios bitrate con el mismo protocolo, incluyendo velocidades simétricas de 622 Mbit/s, 1.25 Gbit/s, y asimétricas de 2.5 Gbit/s en el enlace descendente y 1.25 Gbit/s en el ascendente.
·        OAM&P extremo a extremo.
·        Seguridad del nivel de protocolo para el enlace descendente debido a la naturaleza multicast de PON.
·        El número máximo de usuarios que pueden colgar de una misma fibra es 64 (el sistema está preparado para dar hasta 128).

La norma GPON contempla dos posibilidades referentes a los protocolos de enlace que se pueden utilizar:

·        ATM: es el utilizado por APON y BPON, por lo que es una solución continuista.
·        GEM (GPON Encapsulation Method): se trata de un nuevo protocolo definido por la G.984s para en GPON.

A pesar de existir las dos posibilidades, los fabricantes se han decantado por implementar solamente la solución GEM. La pila de protocolos quedaría de la siguiente manera:Ethernet sobre GEM, y éste sobre TDM/TDMA

GPON es un estándar muy potente pero a la vez muy complejo de implementar que ofrece:

·        Soporte global multiservicio: incluyendo voz (TDM, SONET, SDH), Ethernet 10/100 Base T, ATM, Frame Relay y muchas más
·        Alcance físico de 20 km
·        Soporte para varias tasas de transferencia, incluyendo tráfico simétrico de 622 Mbit/s, tráfico simétrico de 1.25 Gbit/s y asimétrico de 2.5 Gbit/s en sentido descendente y 1.25 Gbit/s en sentido ascendente.
·        Importantes facilidades de gestión, operación y mantenimiento, desde la cabecera OLT al equipamiento de usuario ONT.
·        Seguridad a nivel de protocolo (cifrado) debido a la naturaleza multicast del protocolo.

FDDI: Fiber Distributed Data Interface es un conjunto de estándares ISO y ANSI para la transmisión de datos en redes de computadoras de área extendida o local (LAN) mediante cable de fibra óptica.

La red FDDI tiene un ciclo de reloj de 125 MHz y utiliza un esquema de codificación 4B/5B que permite al usuario obtener una velocidad máxima de transmisión de datos de 100 Mbps. Ahora bien, la tasa de bits que la red es capaz de soportar efectivamente puede superar el 95% de la velocidad de transmisión máxima.

Biografía

  • wikipedia la enciclopedia libre. (2014, 26 de mayo). Red de área local inalambrica, Recuperado el 25 de junio del 2014 de:http://es.wikipedia.org/wiki/Red_de_%C3%A1rea_local_inal%C3%A1mbrica.

  • X.Pérez-Costa, D.Camps-Mur and T.Sashihara. Analysis of the Integration of IEEE 802.11e Capabilities in Battery Limited Mobile Devices. IEEE Wireless Communications Magazine (WirComMag), special issue on Internetworking Wireless LAN and Cellular Networks, Volume 12, Issue 6, December 2005.

  • Blumenthal, Daniel J., "All-Optical Label Swapping for the future Internet". Mar.2002.





miércoles, 30 de abril de 2014

LA WEB

Que es la WEB
La World Wide Web ("telaraña de alcance mundial") o simplemente la Web, tuvo sus orígenes en 1989 en el CERN (Centro Europeo para la Investigación Nuclear) el investigador británico Tim Berners-Lee se dedicaba a encontrar una solución efectiva al problema de la proliferación y la heterogeneidad de la información disponible en la Red. Integrando servicios ya existentes en Internet (como el muy utilizado Gopher por esa época) Berners-Lee desarrolló la arquitectura básica de lo que actualmente es la Web.
Multimedia, Hipertexto e Hipermedia
Decimos que estamos en presencia de un documento multimedia (o con capacidades multimediales) cuando en él se combinan textos, imágenes, fotografías, audio, sonido, animaciones, video y cualquier otro tipo de datos en forma digital.
Un documento hipertextual es aquel en el cual existen relaciones (enlaces) entre las palabras o conjuntos de palabras que lo
componen, tanto dentro del mismo como hacia otros, mediante un
sistema de índices que los vincula.
 Finalmente si a una presentación multimedial le agregamos la
capacidad de vincularse o "navegar" por la misma, estamos en
presencia de un documento hipermedial. 

Las actuales enciclopedias en CD-ROM, son una clara muestra de
este tipo de documentos donde se combinan la riqueza de la
información en sus diferentes formas con las posibilidad de acceder a
ella en forma no secuencial, de acuerdo al camino elegido por el
usuario.
 Características de la Web
Según su propio creador, Berners-Lee, la Web es un sistema que
presenta las siguientes características:
1) Hipermedial: en la Web podemos manejar información
multimedial y navegar a través de ella.

2) Distribuido: a diferencia de las antiguas y enormes bases de
datos que concentraban la información físicamente en un único lugar,
la Web es un sistema compuesto por miles de servidores localizados
en cientos de ciudades del mundo que están interconectadas entre sí.

3) Heterogéneo: por ser un servicio relativamente nuevo, la Web
tiene la ventaja de poder reunir servicios y protocolos más antiguos
(como Gopher, los News, FTP, e inclusive el correo electrónico), de
modo tal de presentar la información desde un único programa cliente.

4) Colaborativo: ésta es una característica sustancial y la que
posiblemente le haya dado el mayor empuje a su crecimiento, ya que
cualquier persona, en cualquier parte del mundo, puede agregar
información a la Web para que luego pueda ser consultada por el
resto de los usuarios.
 una serie de herramientas y
estructuras, muy complejas en algunos casos, que justamente
posibilitan un acceso más transparente.
Veamos cada una de ellas:

1) Browsers

En una arquitectura de tipo cliente-servidor, el usuario interactúa y
obtiene información desde su computadora a través de una aplicación
cliente. En la Web estas aplicaciones se conocen bajo el nombre
genérico de "browsers" (también llamadas en nuestro idioma
"visores", "visualizadores", "navegadores" o "exploradores"), y
cumplen dos funciones básicas:
• transmitir a los servidores remotos las órdenes que le
imparte el usuario, y
• presentar la información en forma asequible a quien la
solicite.

2) El protocolo HTTP
Tal como vimos en el Cap. 1, Internet tiene su fundamento en base
a protocolos estándares, sin los cuales no podría funcionar. Si bien el
protocolo subyacente es el TCP/IP, para ciertas funciones particulares
son necesarios otros protocolos, como en el caso específico de la
Web, donde fue necesario crear un protocolo que resolviese los
problemas planteados por un sistema hipermedial, y sobre todo
distribuido en diferentes puntos de la Red.
Este protocolo se denominó HTTP (HyperText Transfer Protocol, o
Protocolo de Transferencia de Hipertexto), y cada vez que se activa
cumple con un proceso de cuatro etapas entre el browser y el servidor
que consiste en lo siguiente:
• Conexión: el browser bus sca el nombre de dominio o el número
IP de la dirección indicada intentando hacer contacto con esa
computadora.  
Que es la WEB 1.0
La Web 1.0 empezó en los años 60's junto al Internet, de la forma más básica que existe, con navegadores de solo texto, como ELISA, era bastante rápido pero muy simple. Después en los 90 surgió HTML (Hyper Text Markup Language) como lenguaje hipertexto e hizo que las páginas Web sean más agradables a la vista y puedan contener componentes como imágenes, formatos y colores. Los primeros navegadores visuales fueron Netscape e Internet Explorer.
Esta Web es de solo lectura, ya que el usuario no puede interactuar con el contenido de la página (ningún comentario, respuesta, etc.). Estando la información totalmente limitada a lo que el Webmaster pueda publicar.
Limitada, usada fundamentalmente para publicar documentos y realizar transacciones. Con ella, las grandes empresasinauguraron su estrategia online. Crearon un sitio donde publicarinformación corporativa, y desarrollaron planes de marketing y ventas que incorporaban la Web como nexo con los clientes.

Ventajas
         Exposición al mundo entero a través del Internet.
         El presentador de la información tiene total control y autoridad de lo publicado.

Desventajas
         La comunicación es pasiva.
         No se permite retro alimentación perdiendo la oportunidad de tener acceso a información relevante.
         No se conoce inmediatamente la reacción del público en relación a la información compartida.
La web primitiva, la del siglo 20, era aquella que se caracteriza principalmente por ser unidireccional y realizada sobre contenidos estáticos. Las primeras páginas que vimos en Internet publicaban contenidos de texto que, una vez publicados, no se actualizaban salvo que el "webmaster" modificase dichos contenidos y volviese a subir la web de nuevo a internet.
La web 1.0 tenía un carácter principalmente divulgativo, y empezaron a colgarse de internet documentos e información principalmente cultural. Poco a poco las empresas empezaron a tomar parte y las primeras webs de empresa surgieron, con diseños muy pobres (no había herramientas, ni tecnología, ni conexión suficiente como para hacerlo mejor) y contenidos que rápidamente quedaban anticuados al ser complejo actualizarlos.
La web 1.0 es un tipo de web estática con documentos que jamás se actualizaban y los contenidos dirigidos a la navegaciòn HTML y GIF. 
Que es la WEB 2.0
  LA WEB 2.0 (La red social/la de la colaboración)

Se refiere a una segunda generación de Web basada en comunidades de usuarios y una gama especial de servicios, como las redes sociales, los blogs, los wikis o las folcsonomías, que fomentan la colaboración y el intercambio ágil de información entre los usuarios, donde el estaticismo de las páginas pasa a transformarse en una matriz de interacción del usuario con la Red pudiendo él mismo incluir su propia información en el sistema, creando o no webs interactivas y visuales. Es decir, los sitios Web 2.0 actúan más como puntos de encuentro, o webs dependientes de usuarios, que como webs tradicionales.
Además es la transición que se ha dado de aplicaciones tradicionales hacia aplicaciones que funcionan a través del Webenfocadas al usuario final. Se trata de aplicaciones que generen colaboración y de servicios que reemplacen las aplicaciones de escritorio. Es una etapa que ha definido nuevos proyectos en Internet y está preocupándose por brindar mejores soluciones para el usuario final. En general, cuando mencionamos el término Web 2.0 nos referimos a una serie de aplicaciones y páginas de Internet que utilizan la inteligencia colectiva para proporcionar servicios interactivos en red dando al usuario el control de sus datos. Así, podemos entender como 2.0 todas aquellas utilidades y servicios de Internet que se sustentan en una base de datos, la cual puede ser modificada por los usuarios del servicio, ya sea en su contenido  añadiendo, cambiando o borrando información o asociando datos a la información existente.

Esta tecnología ayuda a las empresas a ser más competitivas y posicionarse en el mercado a través de varias vertientes. Además de esta característica, la web 2.0 posee enriquecimientos como los blogs, que aportan un beneficio a las comunicaciones internas de la empresa y una comunicación permanente con el cliente con sus comentarios y aportaciones. También es posible gracias a esta tecnología, crear wikis para definir un lenguaje básico corporativo.


Ventajas:
1.    Extrapolación y sindicación absoluta. El hecho de que todas las aplicaciones se realicen sobre Web, va a permitir que entre ellas se pueda compartir toda la información (principalmente gracias a XML). Esto nos va a permitir:

1.1. Propagación inmediata de contenido e información (RSS) que va a permitir un mejor desarrollo de la estructura en red.
1.2. Uso de otras fuentes para desarrollar nuevas aplicaciones. Esta cuestión va a permitir que el desarrollo de nuevas aplicaciones se centre en la aportación de valor añadido, centrando los recursos en lo nuevo, y sacando partido de lo hecho por otros.

2.    Aplicaciones (software) como servicio y no como producto.

2.1. Esto elimina el coste de acceso de las pymes a la tecnología más moderna, anulando las barreras de entrada a competir en los mercados por esa vía.
2.2. El pago se hace por servicio, lo que en pequeñas empresas es una muy pequeña cantidad en relación al coste de la plataforma que obtiene y fuera de su alcance a través de inversiones que las sacarían del mercado.
2.3. Es un servicio externalizado, sin barreras de salida para el cambio, lo que permite una mayor dinamicidad al no estar apalancada negativamente por las inversiones (lo que obliga a las empresas ASP a innovar continuamente y ofrecer servicios de valor añadido constantemente).
2.4. Las innovaciones son constantes (entre otras cuestiones porque la estrategia de supervivencia de las ASP radica en ello), sin necesidad de actualizaciones ni cambios.

3.    Ubicuidad. La Web ya se ha consagrado como el canal de interoperabilidad por excelencia. Es decir, las aplicaciones basadas en Web pueden desarrollarse en cualquier terminal (y no necesariamente en los PC): ordenadores, móviles, PDAs, TV digital,…Esto va a permitir tener la información en todo momento y desde cualquier terminal con conexión a Internet.

4.    Cooperación. Las necesidades de la sociedad y empresa red radican principalmente en la cooperación entre los diferentes actores. Estos sistema permiten anular prácticamente los costes para ello (incluido los costes de relaciones sociales), llegando incluso a la cooperación entre actores que no mantienen relación. La estructura del sistema coordinará la relación.

5.    Seguridad. Si bien es un aspecto en debate (y como tal lo recojo también en las desventajas), a nivel de pymes la capacidad de seguridad y de protección de datos de servidores de empresas profesionales será siempre mucho mayor que la mantenida en servidores compartidos o en los mismos ordenadores de gestión diaria. Pérdidas de datos por fallos del sistema, virus, ataques,…son constantes en los ordenadores personales sin que se mantengan copias de seguridad adecuadas y siendo el coste de restauración muy elevado para estas empresas.

Desventajas:
1.       La seguridad de datos confidenciales, como la contabilidad, facturación, etc.  es uno de los aspectos que más se debaten, al estar almacenados en servidores ajenos. Centrándonos en las necesidades de las pymes es probable que los datos estén en mejor recaudo de servidores de empresas dedicadas a ello que en ordenadores que normalmente son mucho más vulnerables a ataques de virus, troyanos, espías, etc.

2.       La conexión a Internet. La dependencia del sistema a la conexión de Internet sigue siendo una barrera a su adopción. Si bien las empresas de telecomunicaciones cada vez son más fiables y mantienen mejores conexiones, siempre existe la posibilidad de quedarse sin conexión en la mitad de una jornada laboral, lo que impediría el uso del sistema. No obstante, este problema debe convertirse tan residual como la caída de la energía eléctrica, que si bien ocurre, no es causa suficiente como para no operar en base a ella.

Web 2.0
La web 2.0 se asiento a mediados de la primera década de este siglo. Sustentada bajo unas conexiones a internet evolucionadas (ya teníamos ADSL), y mejores herramientas para desarrollar web, mejores servidores, etc., la web 2.0, también denominada "la red social", llena Internet de blogs, wikis, foros y finalmente, redes sociales. El objetivo de la web 2.0 es la compartición del conocimiento, es la web colaborativa y ha sido uno de los atractivos principales para atraer a usuarios (basta ver los usuarios de facebook que, hasta facebook, no tocaban un ordenador).

Existe una WEB 3.0
La web 3.0 es la web semántica, la web de la nube, la web de las aplicaciones y la web multidispositivo. Hoy en día ya no solamente utilizamos ordenadores para conectarnos a Internet. Los tablets, los smartphones, e incluso los mapas interactivos, algunas tiendas, y en un futuro no lejano la automoción estará consumiendo Internet.
La web 3.0 se presenta como una web inteligente (aunque creemos que para esto aun falta bastante), y principalmente aprovecha la nube para prestar servicios al usuario y eliminar su necesidad de disponer de sistemas operativos complejos y grandes discos duros para almacenar su información.
Y volviendo al principio, es curioso que tras casi 20 años de internet, haya aún hoy en día tantas empresas que siguen torciendo la cara a internet.
 LA WEB 3.0 (La red semántica)
Podemos identificar la Web semántica como una forma de Web 3.0. Existe una diferencia fundamental entre ambas versiones de Web (2.0 y semántica) y es el tipo de participante y las herramientas que se utilizan. La 2.0 tiene como principal protagonista al usuario humano que escribe artículos en su blog o colabora en un wiki. El requisito es que además de publicar en HTML emita parte de sus aportaciones en diversos formatos para compartir esta información como son los RSS, ATOM, etc. mediante la utilización de lenguajes estándares como el XML. Con esta nueva transformación se permitirá la actualización y el dinamismo perpetuo a través de una interacción constructivista y organizativa de contenidos y estructuras por parte del usuario. El término Web 3.0 es asociado por la prensa generalista al concepto de Web semántica que se está desarrollando bajo la tutela de Tim Berners-Lee, el mismo que inventó la Web a principios de los 90. Las características que diferencian esta etapa de las anteriores se podrían resumir en:

  Transformación de la estructura Web actual en la de Web semántica.
  Utilización de Inteligencia Artificial en combinación con la nueva estructura.
  Prevalencia del usuario en la creación, organización y rendimiento del contenido a través de un modelo de cooperación globalizada.

La web 3.0 es La inteligencia humana y la de las máquinas combinadas. Información más rica, relevante, oportuna y accesible. Con lenguajes más potentes, redes neurales, algoritmos genéticos, la Web 3.0 pone el énfasis en el análisis y la capacidad de procesamiento. Y en cómo generar nuevas ideas a partir de la información producida por los usuarios. Quien invierta en eso y, en el nuevo mundo transparente, concentre energía y medios en comunicarse y generar confianza desde la Web, será el dueño de las ventajas competitivas.
Se identifica al término de WEB 3.0 como la “Web Semántica” según el creador de la World Wide Web, Tim Berners-Lee.
Todavía no se llega a comprender al 100% lo que significa la WEB 2.0 y cuáles son sus beneficios, cuando ya se está hablando del término WEB 3.0 la que promete transformar nuestra experiencia Web.
Algunas personas consideran que la WEB 3.0 será una revolución si es que se logra una combinación correcta en el contenido semántico dentro de las páginas web y el uso de lo que se ha venido mencionando por mucho tiempo, la inteligencia artificial, la cual podrá sacar el mejor jugo de esta combinación. Este esfuerzo de combinar dos poderosas herramientas para el beneficio de la experiencia en Web


Ventajas de la web 3.0:
            El código es mucho más sencillo de desarrollar y mantener.
            Los buscadores encuentran información relevante más fácilmente.
            Es mucho más sencillo hacer modificaciones al diseño o compartir información.
            No se depende de un solo servicio para obtener información, sino que ésta puede estar distribuida en varios sitios y juntarla en un tercero.
Desventajas de la web 3.0:
         Hay que tener más cuidado con la seguridad de la información del sitio.


Que es una actitud 2.0
LA ACTITUD 2.0 puede considerarse como la disposición asociada a la forma de interactuar con el software social y las nuevas tendencias tecnológicas emergentes… intenta diferenciarse de la actitud 1.0 (pasiva, consumidora de contenidos, estática con escasa participación bidireccional). Ésta se puede generar en la interacción comunicativa entre individuos mediada por las nuevos avances tecnológicos, es decir, el comportamiento social empático por utilizar herramientas de comunicación virtuales para colaborar, transformar, elaborar/relaborar, orientar, ayudar, difundir y generar información compartida y, en algunas ocasiones, promocionar espacios para la génesis de comunidades de inteligencia colaborativa. 

También puede ofrecer la oportunidad de compartir opiniones, contrastar hipótesis de trabajo, mejorar las ideas expuestas y aprender los unos de los otros en entornos telemáticos abiertos.

En este sentido, los entornos educativos tradicionales consistía en estar conectado (on-line), distribución de contenidos y déficit de interacción homo conexus. A nuestro modo de ver en función a las últimas tendencias emergentes tecnológicas se inclina por una aproximación hacia la socialización del entorno on-line en interacción y elaboración con comunidades de aprendizaje y reaprendizaje mutable y flexible, es decir, una tendencia hacia el  homo socio-digital versátil.

En resumen, la actitud 2.0 es la transición del "yo" al "nosotros" cristalizado en un ecosistema de comunicación mediado por los nuevos avances tecnológicos inserto en una arquitectura de participación de comunidades de información en el ciberespacio.
Que es la WEB semántica
La Web semántica puede ser la respuesta a los problemas anteriores, aunque el proyecto intenta
ir mucho más allá. Comencemos por señalar que, en la Web semántica, en lugar búsquedas por
comparación de cadenas de caracteres, se espera que los sistemas de información sean capaces
de buscar por conceptos.
Si buscamos por caracteres, las palabras de la pregunta y las palabras del documento (o del
índice de documentos) deben coincidir letra a letra. En cambio, si buscamos por conceptos, lo
de menos es la palabra. Lo importante es el concepto. Esto suena a inteligencia artificial. Por
tanto, aunque existe una cierta resistencia a llamarlo así, con la Web semántica se está
buscando el mismo objetivo que la IA, a saber, que los ordenadores entiendan que un
documento sobre "equinos" puede ser muy relevante para una necesidad de información sobre
"caballos", y que conceptualmente las preguntas "¿es posible parar la guerra?" y "¿es posible
alcanzar la paz?" son en realidad la misma pregunta.
Por tanto, entre los objetivos de la Web semántica se encuentra la posibilidad de que sea posible
sostener una interacción entre un usuario y un agente de software mediante el cual el primero
pueda ir expresando y perfilando sin ambigüedad puntos como los siguientes: objetivos de la
búsqueda, géneros documentales pertinentes, punto de vista, granularidad esperada en la
respuesta, etc. A partir de aquí, se espera que el agente de software sea capaz de elaborar una
estrategia de búsqueda según su propia iniciativa (la del agente de software) que involucre el
uso de lenguajes documentales, metadatos y ontologías para responder con eficacia y rapidez al
usuario.
Se espera igualmente que los ordenadores puedan desarrollar tareas de gestión que requieran
interpretar información y tomar decisiones adaptándolas al contexto. El mejor ejemplo de este
tipo de tareas lo proporcionó el propio Tim Berners-Lee junto con dos de sus colaboradores en
el año 2001 (Berners-Lee, Hendler y Lassila, 2001: 39). En este artículo, los autores
mencionados explicaban el caso de unos usuarios del futuro (para cuando se escribió ese
artículo se estaba pensando en unos 5 años vista, por la tanto ya debería ser posible) podrían
encargar a un agente de software el establecimiento de citas para sesiones de fisioterapia. Vale
la pena reproducir lo que señalaba el citado artículo:
Lucía, desde la consulta del médico, dio instrucciones a su agente de la Red3
 semántica
mediante su navegador portátil. Al cabo de unos instantes, el agente había obtenido del
agente del médico la información necesaria sobre el tratamiento prescrito, había
consultado varias listas de profesionales, y verificado cuáles pertenecían al seguro médico
en un radio de 30 kilómetros del domicilio de ésta, y habían recibido valoración de
excelente o muy bueno por servicios de evaluación de calidad dignos de confianza. El
agente empezó entonces a buscar concordancias entre las horas de cita previa de que
disponían estos profesionales (proporcionados por los agentes de cada uno de ellos desde
3
 Seguimos la traducción aparecida en castellano en el número de Investigación y Ciencia de Junio de
2001. Red en este caso es un sinónimo de World Wide Web (en general, Red en mayúscula se refiere a
la Web)sus sitios en la Red) y los escasos huecos con que contaban los atareados Germán y Lucía.
(Berners-Lee, Hendler y Lassila, 2001: 39).
Nosotros hemos marcado en cursiva la palabra agente de la primer línea. El término agente en
todo el párrafo citado (no solamente en la primera línea) se refiere a un programa informático
con autonomía para realizar acciones e incluso adoptar decisiones (aunque sean luego revisadas
por el usuario) inteligentes.
En cambio, los términos en negrita están así mismo en el original. Respecto a ellos, señalan los
autores: “Las palabras clave resaltadas denotan términos cuya semántica […] le fue definida al
agente a través de la Red semántica”. Es decir, de acuerdo con los autores, términos como
“tratamiento prescrito”, “profesionales”, “domicilio”, etc., serán entendidos, es decir, tendrán
valor semántico, para el agente de software.
Presentada en estos términos, no cabe más remedio que concluir que la Web semántica incluye,
como ya hemos destacada antes un objetivo al que la informática ha denominado hasta ahora
Inteligencia Artificial. A continuación, siempre en el mismo artículo, puede leerse lo siguiente:
La Red semántica aportará estructura al contenido significante de las páginas de la Red;
creará un ambiente en el que los agentes informáticos, que irán visitando una página tras
otra, realizarán con presteza tareas complejas por encargo de los usuarios del sistema.
Llegado a la página de la clínica, tal agente no sólo sabrá que la página contiene términos
clave como “tratamiento, medicina, fisioterapia”, sino que el doctor Martín consulta en
esta clínica los lunes, miércoles y viernes, que el guión acepta intervalos de fechas en el
formato dd-mm-aa y responde con horas de cita. Podrá “enterarse” de todo ello sin
necesidad de poseer una inteligencia artificial”. El contenido semántico quedó codificado
en la página de la clínica cuando sus administradores le dieron forma […]. (Berners-Lee,
Hendler y Lassila, 2001: 39).
En el párrafo precedente vemos que, después de enumerar tareas propias de la Inteligencia
Artificial, los autores indican claramente contradictoria: “todo ello sin necesidad de poseer una
inteligencia artificial”. Esta declaración solamente se explica por el deseo expreso del W3C de
distanciarse del aura de fracaso de una parte de la Inteligencia Artificial que, entre los años 50 y
80 proclamó día sí y día también que las máquinas inteligentes estaban a la vuelta de la esquina
sin que tal cosa haya sido cumplida ni siquiera 50 años después de las primeras promesas.
A pesar de todo, un sencillo test con Google nos indica que, en febrero del 2006, una pregunta
sobre “Inteligencia Artificial y Web semántica” arrojó más de medio millón de resultados que
relacionan ambas cosas (recordemos que, para Google, la simple yuxtaposición corresponde a
un AND booleano).
5 Infraestructura de la Web semántica
Los medios con los cuales se persiguen los objetivos de la Web semántica que hemos
presentado anteriormente son, a grandes ragos, los siguientes: en primer lugar, mediante una
codificación de páginas en la cual las etiquetas tengan, precisamente, carga semántica. Este
apartado corresponde al estándar denominado XML (eXtensible Markup Language).
En segundo lugar, aportando descripciones (metadatos) de las páginas y sitios web con un
formato que sea compatible con la estructura general de la Web y con diversas categorías de
páginas e interoperable entre distintos sistemas informáticos. De este se ocupa la norma RDF
(Resource Description Language).
En tercer lugar, mediante un sistema de ontologías que permitan especificar conceptos de los
diversos dominios del conocimiento mediante el uso de un lenguaje fuertemente basado en
lógica simbólica y susceptible, por tanto, de ser eventualmente interpretado por un ordenador.
De este aspecto se ocupa el denominado OWL Web Ontology Language (OWL).
No obstante, el proyecto de la Web semántica está formado por una auténtica sopa de letras,
dada la diversidad de normas, protocolos, lenguajes y especificaciones involucradas. De hecho,
existe un famoso diagrama debido a Tim Berners-Lee, de gran capacidad expresiva, que
pretende abarcar la totalidad del proyecto mediante una metáfora de capas que comprende 7
niveles y que reproducimos a continuación: