De Semántica

Julio 19, 2010

Leía hoy la noticia que Google ha comprado MetaWeb, la compañía que ha desarrollado Freebase, una base de información que contiene y relaciona datos de personas, lugares y cosas de forma estructurada con el fin de proveer un punto de acceso a esta información de manera efectiva.

Es una gran noticia, en lo personal Google me parece una empresa que pone mucho énfasis en apoyar y empujar el desarrollo de nuevas tecnologías, basta con ver la apertura de su sistema operativo para móviles y el desarrollo constante de APIs para sus servicios, y su interés en Freebase demuestra que buscan trabajar y desarrollar nuevas aplicaciones en el área de la web semántica.

¿Qué se puede esperar de Google+Freebase? Es imposible decirlo, pero al menos a mí me gustaría que sirviera como habilitadora en el desarrollo de servicios centrados en información con semántica (significado), con la posibilidad de intercambiar conocimiento e interactuar entre distintos servicios, de Google y no de Google.

Habilitadora en el sentido que provee de herramientas para que la comunidad desarrolle las aplicaciones. Sin embargo, no estoy de acuerdo en muchos comentarios que leí en Twitter y algunos blogs que vaticinan expectantes nuevos servicios creados por los mismos de Google, como si estuviera sólo en las manos de esta compañía añadirle semántica a la información del internet.

Las herramientas, lenguajes y estándares para la Web Semántica ya están disponibles, “sólo” falta ponerlos en práctica para demostrar los beneficios de ofrecer la información de nuestros sitios y aplicaciones Web utilizando estas herramientas. Algunos ejemplos interesantes son: la apuesta de la BBC para el mundial de Sudáfrica 2010, utilizando una ontología para estructurar su información y generar estadísticas interesantes; la página de Newsweek que ya incluye en su código anotaciones RDFa para describir autores, citas, fuentes, etc.; y de los más interesantes, Facebook con su protocolo OpenGraph, que también utiliza anotaciones RDFa para describir y agregar meta-información a cualquier página Web para que ésta tenga la misma funcionalidad de una página de Facebook.

Como generalmente pasa con nuevos paradigmas, se necesita un proceso de adaptación, guerras de lenguajes y estándares y demostración de beneficios comerciales para las empresas. Sin embargo, lo importante a repetir aquí es que ya existen las herramientas para (entre otras cosas) estructurar nuestras bases de conocimiento[1], agregar desde ya información semántica a nuestros sitios Web[2], y describir cada porción de contenido con anotaciones[3 y 4], que muy probablemente resultará en mejores resultados en buscadores (aló SEOs), más significado a nuestro contenido, y mucha más interacción entre servicios y aplicaciones que van más allá de simples ‘mashups’ de contenido.

La verdad, esto suena bien, y seguramente será muy interesante!

De la Privacidad en Internet

Febrero 12, 2010

Recientemente, la privacidad de la información en Internet ha llamado mucho la atención, cuestionando el manejo de los datos de ciertos sitios y las herramientas que tienen las personas para proteger la información que no desean que sea pública. En general, este interés es causado por los cambios en las políticas de páginas Web donde el usuario mantiene información personal, o en el lanzamiento de nuevos productos y sitios con políticas de privacidad muy cuestionables.

A modo de ejemplo, podemos hablar de los cambios en las políticas de privacidad de Facebook, haciendo público cierto contenido personal de sus usuarios, permitiendo que ciertos datos (status, fotos, etc.) puedan ser vistos por cualquier persona, sin necesidad de tener una cuenta registrada en dicha red social. A esto se le debe agregar que su fundador, Mark Zuckerberg, afirmó en una entrevista que “la era de la privacidad online está muerta“, comentario un poco fuerte para alguien que tiene en su haber (relativamente hablando) información de millones de personas y empresas. Podemos también hablar de productos como Google Latitude y más recientemente Google Buzz, que permiten al usuario no solo compartir mensajes, sino geo-localizarlos y adjuntar fotos o videos, así como ver los mensajes de gente que esté cerca de mi ubicación actual. Por si fuera poco, han armado un Gran lío por publicar los contactos de cada usuario, agregando en primer lugar a los contactos con quienes se interactúa más, en un error (quiero pensar que fue un error) de hacer pública información privada del usuario, y de manera automática.

Aprovechando que este tema está dando mucho de qué hablar, quiero compartir ciertos puntos que leí hace algún tiempo en un artículo donde los autores hacían un balance entre la oferta de personalización vs la privacidad del usuario. En este artículo, hablaban de ciertas “Reglas de Oro” para ofrecer personalización al usuario, manteniendo su privacidad y, más importante, respetando las leyes de privacidad que puedan estar involucradas. Estas reglas están tomadas de varias leyes de privacidad aprobadas por la Unión Europea:

  1. Consentimiento del usuario o anonimidad: para cualquier información personal almacenada y publicada, se necesita la autorización y consentimiento previo del usuario, o su anonimidad en caso contrario. Este punto tiene como requisito algo bastante interesante: cada usuario que no fuera ser considerado como anónimo, debe ser correcta y sistemáticamente “identificable”, por medio de logs, origen, o algún otro medio aceptado.
  2. Retiro del consentimiento del procesamiento de la información: este punto trataba más sobre la personalización (al menos en el artículo), pero habría que ver su aplicación en otras áreas. De todas maneras, este punto dice que, en todo momento e incluso en la sesión actual, el usuario puede retirar su consentimiento previo para que el sistema utilice su información (de tráfico y ubicación geográfica) y evitar que exista una personalización respecto a estos datos.
  3. Cuáles, por qué y por cuánto tiempo? El usuario tiene el derecho de saber cuál dato será utilizado por el sitio, con qué propósito y por cuánto tiempo, y si la información será compartida a terceros, con previa autorización para hacerlo. En otras palabras, no es sólo de informar al usuario que se usará su información, sino que al informarle debe ser muy específico.
  4. Información personal sin agrupar: la información personal obtenida para un propósito específico, no puede ser agrupada para proveer otra personalización. Un claro ejemplo de esto es Google. Google tiene varios servicios con diferentes propósitos, este punto lo que dice es que no se debe poder agrupar esta información con otros nuevos fines.
  5. La información respecto al uso debe ser eliminada después de cada sesión: con excepciones, los datos respecto al uso de la información que no se haya aprobado, debe ser eliminado inmediatamente.
  6. Prohibición de la automatización de las decisiones del individuo: me permito citar el artículo pues me parece bastante importante: “No fully automated individual decisions are allowed that produce legal effects concerning the data subject or significantly affect him and which are based solely on automated processing of data intended to evaluate certain personal aspects relating to them, such as their performance at work, creditworthiness, reliability, conduct, etc.”. En pocas palabras, la automatización obviando el poder de decisión del usuario está prohibido.

Curiosamente, no creo que exista una sola aplicación que cumpla con todos estos requisitos. Peor aún, se podría decir que Google falla de alguna manera en todos ellos. La automatización en Google Buzz es sin lugar a dudas un fallo tremendo al punto 6. En mi opinión personal, todo esto tiene un gran “SE SUPONE QUE…”, pues no creo que se cumpla al pie de la letra.

En resumen, la idea (y lo ideal) sería que los servicios y aplicaciones pueden almacenar información privada de los usuarios con la previa autorización de éstos, con la premisa que dichos usuarios deben ser identificables. Además, los usuarios deben saber específicamente qué información se almacena y se utiliza y con qué fin. Finalmente, los servicios deben proveer al usuario las funcionalidades para modificar y borrar su propia información. Google, al que muchos llaman el gran enemigo en este sentido, lanzó recientemente su Dashboard, un portal donde se puede ver y administrar toda la información personal que tiene esta compañía de uno. Es al mismo tiempo interesante e impresionante (da un poco de miedo, la verdad) ver todo lo que saben de uno.

saludos!

Restringir acceso a una web con usuario y dirección IP usando .htaccess

Septiembre 4, 2008

Esta es una pequeña nota de un problema con el que me he topado el dia de hoy y antes de ponerme a duplicar páginas o a inventarme algunas lineas de código en PHP para restringir el acceso decidí investigar un poco como configurar el .htaccess para poder restringir el acceso a un directorio web y me encontre con una solucion fácil y sencilla.

La situación era esta. Necesitaba restringir el acceso a un directorio web de manera que si alguien accede a la URL desde la IP de la oficina le permita el acceso transparente, y si el acceso se realiza desde cualquiera de las IP no autorizada que solicite un usuario y una contraseña para poder acceder al contenido. Para poder lograr esta configuración el archivo .htaccess debe de estar alojado en la raíz del directorio que queremos (en este enlace encontraras más información sobre como habilitar el .htaccess)

El archivo .htacces queda de la siguiente forma:


AuthUserFile /var/www/website/subdir/.htpasswd
AuthName "Protected Site"
AuthType Basic
Require user usuario1 usuario2
Order allow,deny
Allow from xx.xx.xx.xx
Satisfy any

El truco esta en la instrucción “Satisfy any” que basicamente lo que hace es permitir el acceso al subdirectorio si se cumple al menos una de las condiciones que exigimos en el archivo .htaccess. Yo personalmente no lo conocía pero navegando un poco encontre la solución y la dejo aquí por si a alguien le hace falta o para futuras referencias propias, que siempre se me olvida como hacer este tipo de cosas.

(Howto restrict access to a website by IP and username using .htaccess)

Viaje relámpago a la Campus Party

Agosto 1, 2008

MobuzzTV en la Campus Party

El Miércoles pasado, 31 de Julio, para ser más exactos nos fuimos hacia Valencia a recoger material de la Campus Party para Mobuzz, aprovechando que Osiris estaba invitada a una mesa redonda denominada “Tecnochicas”, para discutir acerca de las mujeres y su relación con la tecnología, junto a otras figuras femeninas como Carolina Denia, Drita y Kara.




Era mi primera experiencia en la Campus Party, había escuchado hablar mucho de ella y Pablo fue el año pasado como enviado de Mobuzz cuando aún trabajaba aquí, y he de reconocer que por más que me lo explico, nunca entendí la magnitud del evento hasta que lo ví con mis ojos. La Campus Party básicamente se realiza durante una semana, hay disponibles muchísimos puestos para que cada participante lleve su ordenador y disponga de una conexión al Internet realmente rápida (7.5Gbps). Bajo esa premisa cada uno va con sus propias ideas, a descargar películas, a descargar software, a aprender con los cursos y ponencias que se realizan, a conocer gente. Este año habian inscritos 7000 participantes, distribuidos en dos grandes salones, y cuando digo grandes eran realmente grandes. Y dentro de los salones se distribuian en diferentes areas como Campus Blog, Campus Software Libre, Campus Modding, etc.




Mucha gente tiene pre concevida la idea de que allí solo llegan muchos frikis a descargar películas, que es un nido de piratas y gente rara. Nada más lejos de la realidad, es muy interesante como esta gente deseosa de conocimiento se reune allí a compartir, se organizan grupos de programación, retos para participar y aprender. Los organizadores logran llevar a personalidades importantes del Internet para que compartan sus experiencias, este año sin ir mas lejos la charla de apertura estuvo a cargo de Tim Berners-Lee, el padre el Internet, y el toque de humor de Joaquin Reyes, creador de la serie Muchachada Nuí y el icono friki “Enjuto Mojamuto”.




Enjuto Mojamuto en...

Una experiencia corta pero que me ha dejado con la espinita clavada y la cual espero sacarme el año entrante y poder participar y estar allí al menos un par de dias.

Para los que tengan la oportunidad de estar cerca ya sea en España, Reino Unido o Francia no duden en visitarla, se llevarán una buena impresión, y para los que vivan en América, esten muy atentos para la primera Campus Party Iberoamericana que se va a llevar a cabo en San Salvador el próximo del 28 de octubre y el 1 de noviembre de 2008, coincidiendo con la XVIII Cumbre Iberoamericana de Jefes de Estado.





Aquí la Dosis Diaria que salió de todo lo que vimos por allí.

La Web Ubicua

Junio 3, 2008

Mucho se habla y se ha hablado en los últimos años acerca de la “Web 2.0″, de blogs, comunidades y start-ups que han venido a revolucionar no solo el Internet sino nuestros hábitos personales y comerciales. Sin embargo, dicho término no nace por una segunda versión o generación del Internet, sino que nace como un término confuso que unos utilizan para definir interactividad del usuario, contenido generado por el usuario, utilización de tecnologías ajax, y especialmente como un término para marketing. Esto ha creado todo un ejercito online que se dedica a generar y desarrollar ideas - que en mi opinión es la parte buena - o que “generan” (o copian) contenido de manera excesiva con el único fin de posicionarse “alto” - que para mí es la parte mala, la del marketing - para luego sacarle un provecho económico. Esto ha llevado a que muchos se pregunten qué hay más allá de la Web 2.0, y obviamente obtienen una respuesta sencilla y trivial: Web 3.0.

Esto personalmente es algo que a mí me molesta, porque es una manera de adelantarse a los hechos a veces por una tonta idea de querer ser los “primeros” que lo mencionan, cuando en ocasiones con comentarios así dejan ver que ni siquiera comprenden a lo que se le llamó 2.0. Obviamente escribo este post tratando de ser lo mas cauteloso posible para no caer en lo mismo, y por eso he titulado el post como “Web Ubicua”, el concepto detrás de la visión de red de Sir Tim Berners-Lee, inventor de la World Wide Web.

Para comprender mejor el concepto de Web Ubicua, es importante comprender a sus antecesores. La Web inicial contenía archivos HTML estáticos descargados por los usuarios para obtener información, en términos numéricos ésta vendría siendo la Web 1.0, aunque insisto en que no soy muy partidiario de dicha numeración. Con el tiempo apareció CGI que dió paso a lenguajes de programación que generan contenido dinámico, permitiendo aplicaciones Web mucho más ricas y útiles, dando paso a la Web dinámica. Este dinamismo es el verdadero culpable de la 2.0, un concepto de interactividad, más que una tecnología concreta. ¿Cuál es el siguiente paso, entonces? Según Berners-Lee, una Web ubicua donde exista una interacción que incluya el espacio y el contexto, una Web que “comprenda” y que esté “en todos lados” - de allí el término ubicua.-

¿Qué significa esto? No me atrevo a definirlo, sin embargo si puedo nombrar ciertos proyectos, tecnologías y estándares que pueden dar una idea:

1. Computación en todos lados: es curioso ver como la computación ha evolucionado desde mainframes utilizados solo por grandes corporaciones, a la revolución de computadoras personales llegando al usuario común, hasta dispositivos portátiles inteligentes, el más común los celulares (móviles). Tecnologías como J2ME o Google Android (para móviles) podrían permitir varios dispositivos inteligentes por persona, y si imaginamos que entre ellos se pueden comunicar y compartir funcionalidad, podemos imaginar todo un entorno de trabajo inteligente.
2. IPv6: este tecnología no está relacionada directamente con el desarrollo de la Web ubicua, sin embargo me resulta interesante que los planes de implementación de IPv6 son a corto plazo, y que ofrecerán miles de IPs por metro cuadrado en la Tierra. Se podría pensar en una cantidad por demás exagerada a las necesidades actuales, pero resulta curiosamente muy útil para el punto #1 :-) .
3. Semántica: muchos utilizan el término de Web Semántica para definir a la Web 3.0, pero en mi opinión la semántica es solo una herramienta que permitirá la ubicuidad. ¿Qué es la semántica? Pues podemos recordar que en nuestro idioma tenemos un vocabulario que nos provee del conjunto de palabras que podemos utilizar; la sintáctica nos define cómo unir los elementos del vocabulario en oraciones y conceptos; y la semántica nos permite entender o comprender las oraciones. ¿Qué busca la semántica en la Web? Pues ahora que tenemos estándares que nos permiten formar oraciones y que las máquinas se puedan comunicar (XML), se necesita desarrollar estándares que permitan a las máquinas comprender esos datos para poder relacionarlos y comprenderlos. En otras palabras, si una máquina comprende cierta información, se busca que a partir de ellos y de otros datos espaciales y/o temporales pueda inferir información adicional que sea realmente útil. Estos estándares existen en la actualidad aunque no son tan conocidos, pero el mismo Berners-Lee es parte del grupo investigador. Resource Description Framework o RDF permite modelar datos y definir meta-data que relaciona “objetos” (o conceptos); y Web Ontology Language o OWL que es un lenguaje que utiliza RDF para definir ontologías que permitan representar conceptos y sus relaciones en un dominio.
4. Aplicaciones en línea: y no hablo de las aplicaciones Web actuales, sino de aplicaciones mucho más potentes que son almacenadas y ejecutadas en línea, permitiendo que las aplicaciones que usamos a diario estén en Internet y no en nuestras terminales. Ya existen aplicaciones de este tipo en la actualidad, pero resultan interesantes algunas propuestas como el Google App Engine, que empiezan a ofrecer este tipo de servicio.

Con estos 3 términos las opciones, en mi opinión, son infinitas. Podemos imaginar un ejemplo sencillo, sin caer en la fantasía, en una aplicación para nuestro móvil que nos transmita información importante acerca de la calle donde nos encontramos, y que se comunique con nuestra tienda de preferencia para hacer un pedido que se relacione con ello. Es todo un cambio de paradigma donde pasamos de una red “tonta” con terminales inteligentes, a una red inteligente con terminales inteligentes que está consciente de nuestro entorno y trabaja para nosotros.

La Web Ubicua es un concepto que está aún en desarrollo, pero llama curiosamente la atención como se van complementando algunas tecnologías que nos permiten imaginar (o soñar?) lo que podemos esperar en un futuro no muy lejano. Sin embargo, igual me gustaría que todo esto que menciono sea solo una pequeña parte de lo que está por venir, y que aún falten muchísimas cosas por explorar y descubrir.

Jugando en un Macbook

Mayo 6, 2008

En un antiguo post sobre mi afición a los videojuegos comentaba que siempre prefería ocuparme de uno o dos juegos que iba sustituyendo con el tiempo. Eso quiso cambiar hace poco. Digo quiso porque con el crecimiento de la industria de los videojuegos y la calidad que ahora traen decidí que era el momento de aumentar mis aptitudes de gamer e instalarme unos cuantos juegos mas, ¡quería matar zombies infectados con Resident Evil 4 o trasladarme a la edad media y ser un asesino a sueldo con Assassin’s Creed! hasta que sufrí las deficiencias de mi tarjeta gráfica y descubrí que un Macbook no está pensado para jugar.

Si, es mi culpa. Tenía que haberle puesto mas atención a las características del hardware de la Macbook. Tenía que haber leído los artículos que hablaban de los problemas para un gamer de tener una tarjeta gráfica integrada. Tenía que haber visto que la misma Apple describe el Macbook para gamers on the go. Es mi culpa. No podré matar zombies ni ser un asesino a sueldo en la edad media.

Una vez superada esa depresión inicial y buscando un poco de consuelo descubrí que existía todo un grupo de gente jodida por tarjetas gráficas integradas y con ganas de jugar. Fue así como encontré en Mac Forums un hilo de juegos que funcionan en MacBook y que han sido testeados por los usuarios. Allí nos cuentan cómo los han hecho funcionar y la calidad de los mismos ya sea en Windows o en Mac. También encontré una herramienta online muy útil llamada Can you run it? que nos dice si nuestro equipo puede o no con un videojuego.

Así que si tienes o vas a tener un Macbook ya sabes a que atenerte en este sentido. Es muy probable que no puedas jugar con lo último del mercado salvo raras excepciones como los juegos de Electronic Arts. De mi parte puedo confirmar que me funcionan perfectamente cuatro:

- EA Fifa 2008
- GTA 3: San Andreas
- The Godfather
- Call of Duty 2

Si has conseguido que te funcione alguno mas dinos cuál en los comentarios.

¿Qué son las Rewrite Rules?

Abril 14, 2008

Son un conjunto de reglas que se valen de expresiones regulares para poder reescribir solicitudes de direcciones URL “on the fly” y de forma transparente. Son parte del módulo de Apache mod_rewrite y soportan un número ilimitado de condiciones utilizando variables e inclusio los “headers” HTTP para cambios avanzados de las direcciones URL.

En palabras más claras nos permiten reescribir la dirección URL utilizando patrones fáciles de entender para los humanos y haciendolos fáciles de indexar y convertirlos a peticiones que nuestra programación pueda entender. Este módulo es comunmente utilizado para poder usar las denominadas “Clean URL’s” (URL limpias) para hacerlas más lógicas, un ejemplo sería cuando el usuario ve esta URL http://www.dominio.com/buscar/termino y el mod_rewrite se encarga de convertir esa URL en http://www.dominio.com/cgi-bin/buscar.cgi?term=termino.

De esta forma para el usuario es fácil recordar esa URL ya que mantiene una sintaxis más clara de entender. Esta no pretende ser una guía muy extensa del mod_rewrite, si quieres ampliar información puedes verla en la Wikipedia y el sitio de Apache, así como las directivas de configuración.

Algunos usos prácticos de las rewrite rules

  • Permitir que las direcciones URL sean más amigables al usuario y los buscadores.
  • Prevenir el “hot linking” o que usen tus imagenes en otros sitios.
  • Esconder las direcciones web reales de tu servidor a los usuarios.
  • Redirigir de forma transparente las peticiones web.

Es una herramienta muy potente, y nos da muchísimas posibilidades de juego a costa de un pequeño incremento en la carga de procesamiento en el servidor, por lo que no es aconsejable el uso excesivo de estas.

Para habilitarlas es aconsejable hacerlo desde la raíz del servidor web, creando un archivo .htaccess con las siguientes cabeceras

Options +FollowSymLinks
RewriteEngine On
RewriteBase /

Abajo de estas líneas ya pueden empezar a detallarse las reglas que necesitemos configurar.

Desde hace algún tiempo he estado utilizando estas herramientas y me han ayudado a mejorar mi sitio web, son muy fáciles de usar si tienes un mínimo conocimiento de expresiones regulares y de las cabeceras del Apache. Así que me gustaría explicar algunos problemas que me encontre y como los hemos resuelto usando las rewrite rules:

Rewrite rules para el uso de “Clean URL’s”

RewriteRule ^user/(.*)$ /mt/mt-cp.cgi?username=$1 [L]

Esta regla lo que hace es buscar la palabra user seguida de una “/” desde el inicio de linea, es decir, el primer caracter despues del dominio, por ejemplo

http://www.dominio.com/user/edeleon

Si la encuentra reenvía la petición al servidor Apache de la siguiente forma

http://www.dominio.com/mt/mt-cp.cgi?username=edeleon

Y el servidor devuelve al usuario la página sin cambiar la URL en el navegador del usuario. Al usar el flag [L] le decimos al mod_rewrite que esa es la última regla evitando así que las siguientes reglas puedan cambiar el resultado de la petición.

Rewrite rules para el uso de “Clean URL’s” utilizando los “headers HTTP”

RewriteCond %{HTTP_REFERER} www [OR]
RewriteCond %{HTTP_REFERER} docs
RewriteCond %{REQUEST_URI} /user/(.*[^/])
RewriteRule ^user/(.*)$ /mt/mt-cp.cgi?username=$1 [L]

En esta ocasión utilizamos el RewriteCond para condicionar la regla de tal forma que preguntamos si la petición viene de un sitio que contenga www O docs en el dominio Y si la URL contiene /user/ seguida de cualquier caracter que utilice el patrón de RewriteRule para reescribir la petición. Ojo a la forma de utilizar [OR] para que el operador acepte una condicion u otra, y si no lo usamos usa el operador “and” por defecto.

Rewrite Rule para redirigir la petición a otra URL

RewriteRule ^categoria/(.*)$ /category/$1 [R]

Esta regla es útil cuando necesitamos redirigir al usuario a una nueva URL, al usar el “flag” [R] estamos diciendo al mod_rewrite que fuerze la redirección, cambiando la URL en la barra del navegador del usuario y pasando todo el texto despues de “/” como parámetro a la nueva URL.

otra forma de hacer un redirect de forma fácil sería

Redirect permanent /rss/comentarios.xml http://feeds.feedburner.com/my_feef_url

Este ejemplo es práctico si usamos por ejemplo a feedburner como proveedor de nuestros RSS, al usar la directiva Redirect hacemos una redirección del tipo permanente a la nueva URL. De manera que podemos seguir usando nuestras propias direcciones para que los usuarios se subscriban y de ser necesario cambiarlas en el futuro poder hacerlo de forma transparente para el usuario y asi evitar links rotos.

Otros usos de las rewrite rules podrían ser redirigir a los usuarios dependiendo del lenguaje del navegador a la versión específica de nuestro sitio web más adecuada. O verificar el tipo de navegador y si detectamos que es un móvil poder enviar al usuario a la versión móvil de nuestro sitio web. Las posibilidades son infitinas, y espero poder ir contando otras formas curiosas para usar las rewrite rules.

Nuevos formatos para la TV en Internet

Marzo 17, 2008

Después de un tiempo alejado del blog por causas de trabajo, intento hoy retomar de nuevo la intención de seguir escribiendo algunas cosas que me pasan por la cabeza. Antes de iniciar una serie de post sobre lo que he estado trabajando los últimos meses, quiero comentar un poco sobre los contenidos de video en Internet.

Hace poco en Mobuzz se publicó un programa acerca de los cortes de los cables submarinos que proveen en gran porcentaje de servicio de Internet a todo el mundo. En concreto el video es este:

En este programa de Mobuzz, se resume con datos muy interesantes todo lo que hasta ese momento había ocurrido sobre los cortes de los cables y hace algunas referencias a lo que se ha escrito en el Internet e incluso se utilizan algunas teorias conspiratorias que también estan dando vueltas por la red.

La diferencia de este show con todos los demás presentados hasta este momento radica en que es un programa temático de 5 minutos, donde solamente se toca un tema. El ritmo del programa logra resumir en ese tiempo muchisima información valiosa que deja una idea global de lo que sucedió, un programa muy fácil de ver ya que muestra cifras, datos importantes y también un poco de humor a la hora de hablar de conspiraciones. Deja la puerta abierta a quien quiera investigar más sobre el tema recomendando enlaces para continuar con una lectura o simplemente a reflexionar.

Cuando lei acerca de ese tema en varios blogs me encontraba con algunos datos y la información era limitada, algunos blogs si que cubrian un reportaje mostrando una linea temporal de acontecimientos que cumplía con el mismo objetivo de informar, pero le faltaba algo. Ver este video ha sido como ver un reportaje del National Geographic pero muy resumido o como una entrada de la Wikipedia, pero en video. Personalmente creo que es una buena línea a seguir para la creación de contenidos en video, un formato fácil de digerir, lleno de información y con un contenido atemporal que pueda ser referenciado en cualquier momento con la intención de informar acerca de un acontecimiento o tema en específico.

Mobuzz en la Keynote de Steve Jobs

Enero 16, 2008

Keynote de Steve Jobs. ScreenShot de Roger Casas-Alatriste

Pues como pueden observar el dia de ayer, 15 de Enero, Steve Jobs menciono a Mobuzz en su famosa Keynote, la de ayer llevaba el título de “There’s something in the air”. Hablo sobre el iPhone y el iPod Touch con la nueva version del software la 1.1.3, también hablo sobre el iTunes, el Apple TV y las nuevas funcionalidades del soporte de HD y el alquiler de películas, donde hablo sobre Mobuzz. Y por último la gran presentación de la noche la nueva Macbook Air, que es al día de hoy el portátil más fino del mundo, así es también su precio!

Puede sonar a tontería, pero al equipo enterno nos ha hecho ilusión ver nuestro logo allí, dentro de los podcast elegidos por Jobs para su presentación. En lo personal eso me dice que estamos haciendo las cosas bastante bien y esperamos que aparecer allí se traduzca en una buen a publicidad para Mobuzz.

Aquí un enlace a la Keynote, donde pueden ver en el minuto 40:34 el logo de Mobuzz dentro de los podcast de Steve Jobs.

Gracias Javier Alonso Gil!

Blogueando a diez mil metros de altura

Diciembre 19, 2007

 En un vuelo transatlantico Madrid a América he tenido la “suerte” de que Iberia haya sobrevendido el vuelo, y digo la suerte porque de haberme dejado en tierra me hubiera molestado, pero por el contrario afortunadamente no me han cancelado mi viaje sino me han concedido una plaza en Business, además del espacio y del catering disponible que ya es algo que cabe mencionar, algo que me llamo la atención fue la disponiblidad del servicio de instant messenger, y de correo POP3 disponible en el avión, aunque el precio de 5 dolares me parecio un poco caro para el servicio que presta (no es realmente un servico de internet sino de msn messenger y de correo POP3) me decidí a probar el servicio, por curiosidad de cómo tendrían montada la plataforma, y mientras mi colega edeleon se dedicaba a hacer el melendi con todo el vino disponible yo solicité el servicio a la azafata, quien amablemente me trajo un cable plano RJ45 para conectar a Internet, algo que ya me parecio no adecuado a esta epoca dada la tecnología inalámbrica disponible y comparandolo con otras aerolineas que si lo prestan, y a pesar de que en Iberia hacen publicidad del servicio y que además es uno de los pocos servicios de pago para esta clase, me llamo la atención de que ninguna azafata conocia como configurar el servicio que ofrecián. Cuando ya tenía el cable asumí que el servicio funcionaría utilizando DHCP para asignarme una IP y después saltaría un proxy para contratar el servicio, lamentablemente después de varias pruebas el servicio no funciono… y ya me dio corte llamar a las azafatas para solicitar soporte técnico de la solución …. sabiendo yo por experiencia lo pesado que pueden llegar a ser los usuarios en este tipo de casos y mas aún volando a diez mil metros de altura sobre el oceano atlántico corriendo el riego de ser lanzado al mar.

Hasta cuando tendremos que sufrir que no haya acceso a Internet wireless en cualquier avión? Habiendo ya lineas que promocionan este servicio y siendo cada vez mas los usuarios que usamos el ordenador para matar las horas, y existiendo cada vez mas técnología que nos permitiría aprovechar este servicio? En cuanto al precio, no se si con lo que cuesta el billete de avión ya debería de estar incluido…

Siguiente »