Nota del autor

Si la entrada que estás leyendo carece de imágenes, no se ve el vídeo que teóricamente lleva incrustado o el código fuente mostrado aparece sin formato, podéis conocer los motivos aquí. Poco a poco iré restableciendo la normalidad en el blog.
Este blog es un archivo de los artículos situados previamente en Lobosoft.es y ha dejado de ser actualizado. Las nuevas entradas pueden encontrarse en www.lobosoft.es. Un saludo,
Lobosoft.

jueves, 24 de diciembre de 2009

Feliz Navidad


Desde Lobosoft quería desearos a quienes estáis al otro lado de la pantalla unas felices fiestas y un próspero año 2010, repleto de entradas, buenos propósitos y mejores logros. Paz, prosperidad y un mundo que, esperemos conseguirlo, sea un poco más justo para todos.

jueves, 3 de diciembre de 2009

Ah, ¿nos quedan aún derechos?

Lo veía venir, ya nos lo avisaban las "bombas racimo" que eran las "enmiendas torpedo", la permisividad de un gobierno que confunde términos y permite que una entidad privada con ánimo de lucro mueva los hilos suficientes como para influir en la legislación (¡ah, esos tejemanejes encubiertos y, permitidme la guasa, francmasónicos!) mientras hipoteca edificios que son DE TODOS (¡ay, cómo hacemos "Creative Commons" cuando nos interesa, amiguitos!), cobra por nuestro himno autonómico, recauda por derechos anónimos (como sea el de los libros, anda que no sacarán pasta, jeje ;) ) y nos grava las compras con un canon digital que, para mí, es como quitarte los puntos del carné de conducir por adelantado "porque oiga, algún día seguro que se salta usted un semáforo, aparca en doble fila o comete una infracción".


Pues nada, como la sostenibilidad está en todos lados, siendo la palabra más huera del vocabulario de la lengua castellana, a la que los políticos se han encargado de vaciar de significado, ahora tenemos una "Ley de Economía Sostenible" (se ve que la anterior no lo era, con tanta construcción, campito de golf y derroche de libertino capitalismo, por lo que ahora los bancos y las empresas del sector del automóvil y de la construcción, que antaño se llenaron los bolsillos a resultas de sus ora turbios, otrora licuescentes negocios, ensalzan la memoria de Marx, solicitando al Estado ayudas variadas), que curiosamente incorpora entre sus gracias la maldita de recortarnos, un poquito más si cabe, los ya escasos derechos que nos quedan.


Personalmente considero que un autor tiene todo el derecho del mundo a vivir de su trabajo, ya sea la música, la escritura o cualquier otra arte. De hecho, que sus derechos de autor pasen al dominio público cuando transcurre el periodo marcado para ello desde la fecha de su defunción, me parece ético y justo (ya que su creación también se nutrió de su interacción con la sociedad). Es más, con los bienes físicos debería ocurrir otro tanto, e incluso más aún, ya que no es lógico que si yo escribo un libro, mis herederos pierdan los derechos de explotación pasados unos años, pero las casas y terrenos del vecino, que se ha dedicado a la construcción, pasarán ad infinitum entre sus descendientes. Es decir, que aquí todos moros o todos cristianos. Dicho lo cual, y sin ánimo de ser linchado, proseguiré afirmando que los derechos de autor no son los derechos de unos pocos (de aquellos pocos a los que me refería en el primer párrafo), algo que -tristemente- parece haber obviado el Gobierno español.


Así las cosas, desde esta pequeña atalaya que es mi blog, donde aún se me permite alzar la voz, suscribo el



Manifiesto en defensa de los derechos fundamentales en Internet




  1. Los derechos de autor no pueden situarse por encima de los derechos fundamentales de los ciudadanos, como el derecho a la privacidad, a la seguridad, a la presunción de inocencia, a la tutela judicial efectiva y a la libertad de expresión.

  2. La suspensión de derechos fundamentales es y debe seguir siendo competencia exclusiva del poder judicial. Ni un cierre sin sentencia. Este anteproyecto, en contra de lo establecido en el artículo 20.5 de la Constitución, pone en manos de un órgano no judicial -un organismo dependiente del ministerio de Cultura-, la potestad de impedir a los ciudadanos españoles el acceso a cualquier página web.

  3. La nueva legislación creará inseguridad jurídica en todo el sector tecnológico español, perjudicando uno de los pocos campos de desarrollo y futuro de nuestra economía, entorpeciendo la creación de empresas, introduciendo trabas a la libre competencia y ralentizando su proyección internacional.

  4. La nueva legislación propuesta amenaza a los nuevos creadores y entorpece la creación cultural. Con Internet y los sucesivos avances tecnológicos se ha democratizado extraordinariamente la creación y emisión de contenidos de todo tipo, que ya no provienen prevalentemente de las industrias culturales tradicionales, sino de multitud de fuentes diferentes.

  5. Los autores, como todos los trabajadores, tienen derecho a vivir de su trabajo con nuevas ideas creativas, modelos de negocio y actividades asociadas a sus creaciones. Intentar sostener con cambios legislativos a una industria obsoleta que no sabe adaptarse a este nuevo entorno no es ni justo ni realista. Si su modelo de negocio se basaba en el control de las copias de las obras y en Internet no es posible sin vulnerar derechos fundamentales, deberían buscar otro modelo.

  6. Consideramos que las industrias culturales necesitan para sobrevivir alternativas modernas, eficaces, creíbles y asequibles y que se adecuen a los nuevos usos sociales, en lugar de limitaciones tan desproporcionadas como ineficaces para el fin que dicen perseguir.

  7. Internet debe funcionar de forma libre y sin interferencias políticas auspiciadas por sectores que pretenden perpetuar obsoletos modelos de negocio e imposibilitar que el saber humano siga siendo libre.

  8. Exigimos que el Gobierno garantice por ley la neutralidad de la Red en España, ante cualquier presión que pueda producirse, como marco para el desarrollo de una economía sostenible y realista de cara al futuro.

  9. Proponemos una verdadera reforma del derecho de propiedad intelectual orientada a su fin: devolver a la sociedad el conocimiento, promover el dominio público y limitar los abusos de las entidades gestoras.

  10. En democracia las leyes y sus modificaciones deben aprobarse tras el oportuno debate público y habiendo consultado previamente a todas las partes implicadas. No es de recibo que se realicen cambios legislativos que afectan a derechos fundamentales en una ley no orgánica y que versa sobre otra materia.


Para saber más:

La mano que mece la cuna

Después de bastante tiempo sin escribir, vuelvo al blog con una noticia de seguridad que, si bien no tiene mucho donde rascar, sí que creo que es interesante que se difunda. En casa utilizo un antivirus que, hasta la fecha, me ha parecido de lo más potable que hay entre este software en sus modalidades con una versión gratuita para el uso en el hogar: Avast!. Ayer por la tarde se actualizó tanto el motor del antivirus como la base de datos en uno de los equipos que tenemos en casa, y mi pareja continuó trabajando con él. Esta mañana, a primerísima hora, lo he encendido para hacer un pequeño trabajo con él y al poco tiempo de hacerlo me ha aparecido una alerta en la que detectaba un troyano, el Win32:Delf-MZG. Lo he intentado limpiar, he seguido trabajando y al poco rato han empezado a salirme más alertas del mismo problema en otras DLLs del sistema. He empezado a escanearlo y aparecía la memoria infectada, por lo que he reiniciado el ordenador iniciando el proceso de escaneo del Avast! antes de iniciar Windows. Y eso ha sido un caos. Decenas, si no cientos de DLLs infectadas que, afortunadamente, he ido llevando a la cuarentena.


Como tenía que marcharme, y temía que Windows no terminase de arrancar con tanta DLL afectada, y ya que Avast! había limpiado los archivos de inicio de Windows, he abortado el proceso y vuelto a arrancar el equipo. Entré en Windows, actualicé el Avast y procedí a escanear de nuevo. La memoria ya aparecía como libre de virus, y dejé el equipo realizando un escaneo minucioso. Al cabo de las horas, preguntando a mi pareja cómo iba la cosa, me decía que hasta el momento estaba calladito, sin detectar más el troyano. Extrañado (¿antes tantas y ahora ninguna?), barruntando algún tipo de ocultación por parte del troyano, he buscado información sobre el mismo y cuál no habrá sido mi sorpresa al comprobar que se trata de un falso positivo del antivirus, ya corregido en su última versión. El problema ha aparecido en la actualización VPS 91203-0, que incluía la definición de este malware, y ya ha sido corregido. Sin embargo, pueden existir problemas a la hora de recuperar los archivos “infectados” del baúl (y no digamos si elegimos la opción de eliminarlos, lo que obligará a reinstalar esas aplicaciones). Os dejo por aquí algunos enlaces donde se trata el problema, y ya me planteo una tarea para esta tarde: cambiar de antivirus y, de paso, actualizar mi distro de Linux. Un error lo tiene cualquiera, sí, pero no quiero ni pensar en las consecuencias que ha podido tener a nivel mundial, entre los 100.000.000 de usuarios que celebraban los chicos de Avast! no hace tanto.


Lo dicho, cuidaos de quien os cuida.


Más información en:



domingo, 29 de noviembre de 2009

Un mes sin publicar

Llevo un mes sin publicar nada en este blog... La sequía no se nota tanto en el resto, pero la carrera está haciendo estragos por aquí. A ver si consigo marcharme un ritmo de publicaciones. En cualquier caso, y aunque escriba poco o nada por aquí, sigo en activo. Tal vez deba incluir algo más sobre S.I.G., que es un campo en el que estoy trabajando últimamente precisamente gracias a una de las asignaturas de aquella. Ya veremos.


Curiosamente, soy el máximo "autorreferenciador" del blog desde Homo libris. También veo que otros blogs de seguridad me referencian, tal vez de forma injustificada, dada la poco abundante literatura por mi parte en los últimos tiempos. Es el caso de Segurteca. Intentaremos estar a la altura.


También es llamativo que las visitas no cesan. Han descendido algo, pero el día que menos visitas tengo estas alcanzan el número de 250. Sin duda, Google sigue trabajando por mí, jejeje. Eso sí, se notan las publicaciones y la mejora de la indexación en estos casos. Tendré que escribir algo sobre ello.


Ah, y comienza a llover. Una gozada, visto el tiempo caluroso que no termina de irse. ¡Nos leemos!

jueves, 29 de octubre de 2009

¡Sálvame!


Llevas horas trabajando frente al ordenador y, de repente, la pantalla cambia de estado. Se fue la luz y se ha apagado, aparece la pantalla azul de la muerte o, simplemente, la imagen de fondo del escritorio porque la aplicación que estábamos usando se ha cerrado inesperadamente debido a algún problema. Bueno, problema ninguno, ¿verdad? Hemos ido salvando puntual y religiosamente nuestro trabajo cada 10 ó 15 minutos… Ah, ¿no? ¿En serio? ¡Pero cómo se te ocurre!


Esta situación se da más a menudo de lo que debería, y de lo que nos gustaría admitir. Precisamente un programador no debería encontrarse en la tesitura de haber perdido el trabajo de una hora, o dos, o ‘n’, por no guardar los cambios que estaba realizando en el código fuente. No debería pasar… pero pasa.


Si trabajáis con Visual Studio, sabréis que el IDE graba automáticamente los archivos que han sido modificados cada vez que realizamos una ejecución de la aplicación que estemos desarrollando. Esto es así para evitar posibles pérdidas de información si, por un casual, nuestra aplicación vuelve inestable al sistema o Visual Studio no es capaz de controlarla por algún motivo. Sin embargo, si el error se ha producido en otro momento (porque Visual Studio se cierre automáticamente, por ejemplo), podríamos encontrarnos ante un verdadero problema, ¿verdad? Bueno, que no “panda el cúnico”, como decía un conocido personaje televisivo de origen mexicano. Visual Studio realiza copias de seguridad de nuestro código cada cierto tiempo, siempre que tengamos establecida la opción correspondiente dentro del menú de “Herramientas, Opciones” (“Tools, Options”). En el grupo “Entorno” (“Environment”) encontraremos la opción “Autorrecuperación” (“AutoRecover”) que, de estar activada, irá guardando en los plazos que pueden establecerse ahí mismo las modificaciones que hagamos sobre nuestro proyecto.



¿Dónde se encuentran los archivos cambiados? Bien, estarán en la ruta:


My Documents\Visual Studio {versión}\Backup Files\{Nombre del proyecto}


Comenzando por el nombre “~AutoRecover”. De hecho, son los usados por Visual Studio cuando muestra las opciones de autorrecuperación tras un problema, pero si no fuera así ya sabemos dónde buscar las copias de seguridad.



Ah, y recordad: un Control+S (o Control+G, según el idioma) de cuando en cuando, no viene nada mal.


P.D.: Y no, no es algo que me haya ocurrido a mí, malpensados... ;)

domingo, 25 de octubre de 2009

En la onda

Después del periodo más largo de inactividad del blog desde su creación (algo más de un mes y una semana), Google ha decidido que esto no podía ser, y que tenía que ponerme las pilas con él. Que me dejase de libros y otras zarandajas, y escribiese de informática. Para animarme a ello, me ha hecho llegar esto:





A ver si estos días juego un poco con él y os cuento mis primeras impresiones.

miércoles, 16 de septiembre de 2009

¿Nos acaban de enlazar?

Una de las variables a tener en cuenta en el posicionamiento de nuestra web es el número de enlaces entrantes que posee. Cuantas más páginas nos referencien, mayor importancia nos darán los buscadores en los resultados de las búsquedas. Esto es así porque, aparentemente, nuestro sitio web es un lugar de referencia, y los enlaces suponen un reconocimiento al trabajo realizado. Esto es así en parte, y siempre tomado de una forma relativa. Obviamente, los buscadores se han curado en salud respecto a la picaresca de colocar enlaces en comentarios de blogs, foros y, en un futuro cercano, en los sitios webs de las redes sociales. Se intenta evitar así la proliferación de contenidos “basura” cuya única finalidad sea proporcionarnos unos puntos más que faciliten la subida en los buscadores. No es, por supuesto, la única variable a tener en cuenta, y su valor ha decrecido con el paso del tiempo, pero aun así es suficientemente relevante como para tenerla en cuenta.


Aunque existen herramientas para llevar a cabo el recuento de enlaces entrantes, y los propios buscadores permiten buscar las webs que nos apuntan (en Google, anteponiendo la palabra clave link: al dominio que deseemos consultar desde el propio cuadro de búsqueda, o en Yahoo haciendo lo propio con el término linkdomain:), hay una forma bastante curiosa de conocer, en un breve periodo de tiempo, si alguien nos ha referenciado desde su web. Para ello, usamos la herramienta de Alertas de Google, y simplemente debemos configurar una alerta cuyo contenido de búsqueda sea


link: www.miurl


y el resto de opciones queden dispuestas como en la captura que presento a continuación (tipo de búsqueda, “web”, con frecuencia de aviso “cuando se produzca” y que nos envíe la alerta a nuestro correo electrónico. Práctico y muy sencillo.


lunes, 14 de septiembre de 2009

New web war

Antes del verano (uf, cómo pasa el tiempo) conversaba con unos amigos durante el almuerzo sobre diversos temas y surgió, como simple mención, el avance del estándar HTML que está por venir, HTML 5. Hablábamos de sus nuevas características, que lo podían convertir en un referente de la presentación de contenidos en Internet. Referente, al fin y al cabo, por tratarse de un estándar, y porque aunque ha ido a la zaga a otras tecnologías en los últimos tiempos respecto a la presentación de contenidos multimedia en la red (Flash, Silverlight, JavaFX…), lo cierto es que en la base de las páginas web que visitamos sigue estando el HTML y, querámoslo o no, el amigo Javascript.


Para los desarrolladores web ha sido una pesadilla desde tiempos inmemoriales el poder mantener la compatibilidad de sus creaciones para todos los navegadores existentes. La guerra abierta entre los fabricantes de los mismos ha supuesto una pérdida de esfuerzo, tiempo y dinero, para todos aquellos que se han aventurado en tan procelosas aguas, ya que han huido de los estándares, intentando ganar cuota de mercado presentando novedosas características no soportadas por el navegador de la competencia. Los desarrolladores que “firmaron” su pacto con uno de los navegadores se vieron sometidos a la esclavitud de las actualizaciones. Los que se mantenían en las aguas internacionales del estándar no podían obtener páginas tan vistosas como sus competidores, menos escrupulosos con la accesibilidad y la compatibilidad de sus sitios web respecto a los estándares. Y ahora, con un nuevo estándar que avanza a pasos agigantados hacia las demandas de los usuarios de la nueva Internet, nos encontramos con la oposición de las empresas propietarias de patentes frente a un estándar que promete ofrecerse como una plataforma común para presentar contenidos de vídeo, sin necesidad de instalar numerosos plugins adicionales como ocurre actualmente.


Ante este panorama, los navegadores más conocidos no alcanzan el 100% de las pruebas de compatibilidad. De hecho, se acercan al mismo Google Chrome, Mozilla Firefox, Opera y Safari, pero Internet Explorer 8 apenas llega al 25% del total. Algo muy curioso teniendo en cuenta el acercamiento de la última versión del más conocido navegador de Microsoft a los estándares, y el buen aspecto que tenía en cuanto a facilitar la tarea del desarrollador en la depuración de contenidos web. Curioso, digo, porque es conocida la vinculación de Microsoft a los fabricantes de software, y las rentas que recibe por permitir el uso de determinados drivers, codecs y demás software de base en su sistema operativo.


La propuesta para la emisión de video para HTML 5 incluye el uso del codec Ogg Thedora, software libre, que permitirá por tanto la incorporación a todos los navegadores sin mayores restricciones y la mejora del mismo al permitir su estudio por la comunidad. Sin embargo, Apple se opone porque es justamente su más duro competidor, ya que su navegador Safari utiliza el codec propietario H.264. Chrome implementa ambos, pero el H.264 puede tener problemas de difusión por no ser software libre. Firefox y Opera sólo apuestan por Ogg, ya que el codec de Apple implica el pago de la licencia a la hora de distribuir los navegadores. Por último, Microsoft mantiene un sospechoso silencio. Y no me extrañaría, así entre nosotros, que andase maquinando algo respecto a un formato propio.


Está visto que Internet, la red de redes que permite compartir información a lo largo y ancho del planeta, resulta un caldo de cultivo propicio para los tejemanejes empresariales. En particular, su más conocido estándar, el HTML, está sujeto a múltiples vaivenes, y esperemos que finalmente su nueva versión, la 5, llegue a ser bien acogida, ya que incluye importantes novedades (aparte del vídeo, claro), y se está llevando a cabo una interesante campaña para su adecuada implantación.


Para saber más:



domingo, 13 de septiembre de 2009

Alblogueramanía

Que no se me entienda mal. El señor Fernando Almoguera, creador de Albloguera, es un buen amigo mío. Pero eso no resta valor a mi apreciación sobre su trabajo, que es de lo más objetiva. Me consta que su buen hacer en la investigación de las posibilidades de la novedosa tecnología Silverlight para el desarrollo de aplicaciones corporativas es el que le ha permitido acceder a una de las más reconocidas publicaciones nacionales sobre desarrollo en .NET: DotNetManía. Fernando es un profundo conocedor de las tecnologías web en general, y en particular a las vinculadas a la plataforma de desarrollo .NET y a  Silverlight desde sus comienzos, por lo que su visión abarca todas  las mejoras surgidas entre las sucesivas versiones del máximo competidor de Flash.


En el último número de la revista (septiembre de 2009) aparece el artículo "Silverlight en aplicaciones de gestión", escrito en colaboración con el MVP en esta tecnología, Braulio Díez. Un texto sobre Silverlight v3 que nos avanzará algunas de las mejoras incluidas en esta nueva versión: WCF/ADO.NET Services, controles avanzados y arquitectura de las aplicaciones.


Obvia decir que os recomiendo su lectura ;) .

jueves, 10 de septiembre de 2009

Cuando hay demasiados patrones...

... y no hablamos precisamente de los de diseño ;)


Es curioso cómo un libro sobre comportamiento humano (fundalmentalmente desde un punto de vista etológico, sin despreciar el psicológico) y ecología puede brindarnos descripciones tan esclarecedoras de lo que ocurre cuando en nuestras compañías se establece un excesivo número de niveles jerárquicos y, sobre todo, cuando las interrelaciones entre los trabajadores y sus superiores se enmarañan en una red excesivamente tupida:




Una multijerarquización, a la manera de la que se da en el seno de las sociedades industrializadas, viene a constituir una exagerada diferenciación de jerarquía. A Este respecto, ya observa J. M. Milsum que el tamaño y la complejidad crecientes han dado lugar al establecimiento de jerarquías múltiples, entrelazadas y a distintos niveles, que restringen y alienan al ciudadano como individuo.
[…]
Ocurre, por tanto, que cada elemento o grupo de elementos de un sistema cualquiera, ocupa un determinado nivel de jerarquía –organización- dentro del mismo, y se halla situado en una red de referencias configurada por su propia posición dentro del sistema. Si dicha red es muy densa (gran número de niveles, tanto superiores como inferiores), entonces, los elementos de cada nivel están sometidos a una sobrecarga de tensiones, en el sentido de que su libertad individual es más restringida: la excesiva jerarquización se corresponde con el incremento de niveles, dentro del sistema de organización correspondiente. Eso explica el que, en el complicado mundo actual, la burocracia y la tecnocracia se revelen como auténticos obstáculos en la comunicación –cohesión- real entre los individuos de cualquier sociedad industrializada. Dado que existen innumerables niveles en el sistema, las decisiones y contactos personales, salvo, claro está, casos aislados, no tienen relevancia importante en la cadena de transmisión de datos, alejando al individuo de las fuentes de información primarias.
[…]
Lo anteriormente dicho refuerza nuestra tesis de que la multijerarquización intrasistémica conduce a un estado de desorganización, plasmado en la pérdida de cohesión entre sus miembros. Y explica, entre otras cosas, el que, en un estado de armonía con el medio, ningún sistema viviente tienda a incrementar la complejidad jerárquica ni los índices de productividad neta. Por lo demás, recordemos que un incremento de la complejidad jerárquica, se corresponde con un incremento en el consumo de energía. Y esto es patrimonio exclusivo de los sistemas inmaduros, inmersos, como las sociedades modernas, en un proceso de inversión ecológica.


Se trata de Las bases ecológicas del comportamiento humano, del Doctor Ramón Grande del Brío, que editado por Tundra he estado leyendo con gusto estas vacaciones.  Sin duda, un interesante punto para comenzar la reflexión en torno a cómo queremos que sea nuestra empresa y las relaciones que se establezcan entre los empleados.


Y es que se suele decir que "donde manda patrón, no manda marinero" pero, ¿qué ocurre si hay demasiados patrones en nuestro barco? Creo que puede naufragar tan fácilmente como si no hay ninguno, o el que existe no se es consciente de la responsabilidad que conlleva su cargo.

viernes, 4 de septiembre de 2009

¿Me presta usted un Explorer 5.5?

El cambiante mercado de Internet y las aplicaciones web ha derivado en una inusitada profusión de navegadores, actualizándose y renovándose cada pocos años las herramientas disponibles para usuarios y desarrolladores. Quienes trabajamos habitualmente en desarrollo web nos encontramos ante la tesitura de si una determinada solución, aun cumpliendo con los estándares, funcionará adecuadamente en tal o cual navegador. Esto ocurre incluso cuando usamos distintas versiones de un mismo navegador. Obviamente, podemos tener instalados en nuestra máquina el último Opera (por cierto, hace unos días lanzaron Opera 10, y de momento no me disgusta excepto en una excesiva lentitud procesando algunos controles en las páginas), Chrome, Firefox, Safari o Explorer, por citar algunos de los más usados. Pero si queremos probar, por ejemplo, cómo se vería una página web con distintas versiones de Internet Explorer podemos encontrarnos con un pequeño problema.


La herramienta IETester es tremendamente útil para visualizar y depurar una página web en las versiones de Explorer que van de la 5.5 a la 8. Precisamente hace unos días un blog amigo me comentaba que, tras aplicar unos cambios en la plantilla, algunos usuarios no lo visualizaban correctamente. Ya que se trataba fundamentalmente de un problema con Explorer, estuve buscando alguna herramienta que sirviese precisamente para esto: probar la web con varias versiones del navegador. Y me encontré con IETester.



Además, su funcionalidad a la hora de depurar una web puede incrementarse instalando la DebugBar para Explorer, una herramienta muy en la línea de Fiddler o Firebug y que cumple bastante bien su cometido en este caso.



En resumen, una herramienta que puede darnos alguna pista en el momento más adecuado para ello.

domingo, 30 de agosto de 2009

Un microgestor de descargas casero

Llevo tiempo dándole vueltas a adentrarme en el estudio de una nueva carrera (sí, soy un poco masoquista), aunque la aparición de Bolonia con sus pros y sus contras (más de estos últimos, según parece) me daba que pensar en cuanto a mi decisión. Obviamente, con el trabajo únicamente me puedo plantear estudios a distancia, por lo que acceder a mi más deseada titulación (Biología) queda, de momento, un poco lejos. Ya el año pasado estuve dándole vueltas a los másteres homologados para el EEES (Espacio Europeo de Educación Superior), en concreto a uno de redes y seguridad informática que me llamaba poderosamente la atención. Sin embargo, y mientras nuestra titulación no obtenga por parte de quienes gobiernan la deferencia que merecen, y se nos otorguen las atribuciones (es decir, tanto obligaciones como derechos) que deberíamos ostentar creo que dejaré correr lo del máster y, a lo sumo, me adentraré en algún estudio por el mero placer de aprender.


En fin, volviendo a lo que iba, este fin de semana he estado mirando alguna información sobre los Grados que empiezan a impartirse este curso académico, y algunos de los que se iniciarán en el próximo, siempre en la UNED. Además de las guías de la carrera y las de cada asignatura, resulta interesante echar un vistazo a los exámenes de años anteriores, para hacerse a la idea del nivel que alcanzan los conocimientos esperados y los contenidos que entran en juego a la hora de evaluar nuestro trabajo.



Uno de los centros asociados más interesantes a este respecto es el de Calatayud, que cuenta en su página web con un depósito de exámenes realmente apabullante. Accedemos a la carrera deseada, marcamos las asignaturas de las que queremos consultar los exámenes y tenemos ante nosotros los correspondientes a los últimos años (desde 2005 en adelante). Según sea la carrera, pueden rondar cerca de los mil exámenes en total para cada una de ellas. Los exámenes aparecen en PDF, y se pueden descargar o visualizar simplemente con pulsar sobre el enlace correspondiente. Así que nada, me dispuse a descargar unos pocos y aunque sólo quería los de los últimos años, el proceso era harto engorroso: “Botón derecho->Guardar enlace cómo…->Aceptar” y con Google Chrome, en el mejor de los casos (ya que descarga los PDF directamente) ir pulsando en cada enlace. Cuando llevaba unos pocos, como habréis imaginado, me he dicho: ¿por qué no hago un programita para automatizar esto? Dicho y hecho, se tarda menos en ello que en descargar los exámenes de una asignatura. El programa no es nada del otro mundo, y lo cierto es que tiene poco interés, pero ya que está hecho, me he dicho: ¿por qué no divago un poco en el blog y dejo el código fuente?



[CSharp]
using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Text.RegularExpressions;
using System.Net;
using System.IO;

namespace Lobosoft.Utilidades
{
public class Downloader
{
WebClient webClient = new WebClient();
Regex urlRegEx = new Regex(@"(((f|ht){1}tp://)[-a-zA-Z0-9@:%_\+.~#?&//=]+)");

///
/// Descarga los archivos apuntados por los enlaces al path indicado.
///
///
La lista de enlaces. ///
La ruta donde descargarlo. public void GetLinksContent(string html, string extension, string outputPath)
{
string filename;

foreach (string url in GetLinksUrl(html, extension))
{
filename = url.Substring((url.LastIndexOf('/') + 1), url.Length - url.LastIndexOf('/') - 1);
webClient.DownloadFile(url, Path.Combine(outputPath , filename));
}
}

// Obtiene todas las URL dentro de los enlaces existentes en la web cuyo código HTML examinamos
List GetLinksUrl(string htmlSource, string extension)
{
List links = new List();

// Obtiene todas las URL de la web
foreach (Match match in urlRegEx.Matches((htmlSource)))
{
//Pero únicamente agrega aquellas que terminen con la extensión dada.
// Podría sustituirse la expresión regular en tiempo de ejecución para devolver únicamente
// las que nos interesan, pero así puede quedar algo más genérico.
if (match.Value.EndsWith(extension))
{
links.Add(match.Value);
}
}

return links;
}
}
}
[/CSharp]

Como veis, no tiene demasiado misterio. Un método, GetLinksUrl() se encarga de buscar en el código HTML de la página las URLs que contenga, y lo devuelve como una lista de enlaces a GetLinksContent(), que se encarga de ir recorriéndola y descargando los archivos a una determinada carpeta que habremos creado previamente. La llamada a este método se llevaría a cabo con el código fuente de la página en cuestión. Podemos haberlo leído de un archivo local, o bien recuperarlo de Internet mediante un WebClient (con su método estático DownloadString(url)), o si lo usamos desde una aplicación Windows, utilizando un objeto WebBrowser y accediendo a su propiedad DocumentText en un momento determinado). El misterio (o no tanto) estará en saber de qué carrera ando buscando información ;)



Bueno, y ahora, a hacer lo mismo en Python. Estoy mirando una librería, PycURL, que pinta bastante bién, y vamos a ver si consigo lograrlo. Si me pongo a ello os contaré algo por aquí, claro está. ¡Vamos a ello!

jueves, 27 de agosto de 2009

Evitando fallos de carga dinámica de ensamblados

En ocasiones necesitamos cargar un tipo contenido en una DLL de forma dinámica, sin haber establecido una referencia cuando generamos nuestra aplicación. Es el caso de un sistema de plugins en el que una aplicación debe cargar en tiempo de ejecución una serie de DLLs que le ofrecen una funcionalidad adicional. En .NET disponemos de la poderosa herramienta de la reflexión (reflection) para cargar una DLL dinámicamente e instanciar un objeto de una determinada clase para hacer uso del mismo. En principio su uso es bastante sencillo y no suele darnos demasiados problemas pero ¿qué ocurre cuando una DLL que cargamos dinámicamente hace referencias a otras? Si esas librerías están ubicadas en la ruta de nuestro ejecutable no tendremos mayor problema. Recordemos que el comportamiento establecido por diseño en .NET para localizar una DLL es el siguiente:




  1. Busca en el GAC.

  2. Intenta localizarla en el directorio que contiene el ejecutable.

  3. La busca en un subdirectorio dentro de la ruta del ejecutable, cuando se ha establecido a través de un archivo de configuración.


En el caso en que nuestras DLLs no estén en ninguno de estos lugares, se producirá una excepción al intentar cargar el ensamblado correspondiente.


Para la primera situación, la solución es fácil: basta con instalar en el Global Assembly Cache la DLL en cuestión. Sin embargo, no es algo que convenga hacer con todas nuestras DLLs: el GAC debe mantenerse tan limpio como sea posible.


En el segundo caso, por supuesto, bastaría con tener todas las DLLs en la ruta del ejecutable en cuestión, pero no es algo recomendable ni siempre debe ser así. Comenzaríamos a tener librerías duplicadas en el sistema y las aplicaciones terminarían por ser difíciles de mantener.


Para el tercer caso, la solución pasa por incluir unas etiquetas que especifiquen dónde buscará el CLR nuestro ensamblado. Hay que llevar a cabo una firma del ensamblado para obtener su strong name, usar los atributos publicKeyToken y la versión del ensamblado para terminar incluyendo en nuestro archivo de configuración algo como lo siguiente (se trata de un XML, claro está, aunque sustituyo un carácter para que no se interprete como tal y sea visible):



[configuration>
[runtime>
[assemblyBinding xmlns="urn:schemas-microsoft-com:asm.v1">
[dependentAssembly>
[assemblyIdentity name="Dummy" culture="neutral"
publicKeyToken="589048994a485948"/>
[codeBase version="1.0.1423.13588" 
href="FILE://C:/Lobosoft/Dummy.dll"/>
[/dependentAssembly>
[/assemblyBinding>
[/runtime>
[/configuration>

Pero, ¿qué ocurre si las DLLs pueden estar en distintas ubicaciones, no tenemos posibilidad de firmar digitalmente las mismas, o se da algún otro impedimento para optar por esta solución? En ese caso, tal vez debamos optar por controlar el evento AssembyResolve, asociado al dominio de aplicación actual. Su uso es bastante simple:



AppDomain currentDomain = AppDomain.CurrentDomain;
currentDomain.AssemblyResolve += new ResolveEventHandler(AssemblyResolveEventHandler);

Al incluir este par de líneas, en el momento en que deba resolverse si un determinado ensamblado ha sido cargado. Esto ocurre, por ejemplo, al hacer una llamada al método CreateInstance() de un determinado Assembly, para instanciar un objeto de un tipo determinado. En el caso de que alguna de las DLLs referenciadas por el ensamblado no esté disponible, nuestro manejador de evento procederá a llevar a cabo la carga correspondiente:


[Csharp]
Assembly AssemblyResolveEventHandler(object sender, ResolveEventArgs args)
{
//Este manejador es llamado únicamente cuando el CLR intenta cargar un ensamblado y se produce un error.
//Recupera la lista de ensamblados referenciados
Assembly needAssembly, objExecutingAssemblies;
string assemblyTemporalPath = "";
/* myAssembly, en este caso, es el objeto que intentó realizar la carga fallida. Es el Assembly que hemos cargado
* mediante reflection, y que ha lanzado el evento al hacer un CreateInstance() sobre él. Si quisiéramos llevar a
* cabo el control sobre nuestra aplicación podríamos sustituir myAssembly por Assembly.GetExecutingAssembly();
*/
objExecutingAssemblies = myAssembly;
AssemblyName[] arrReferencedAssmbNames = objExecutingAssemblies.GetReferencedAssemblies();
foreach (AssemblyName strAssmbName in arrReferencedAssmbNames)
{
if (strAssmbName.FullName.Substring(0, strAssmbName.FullName.IndexOf(",")) == args.Name.Substring(0, args.Name.IndexOf(",")))
{
assemblyTemporalPath = DllBasePath + @"\" + args.Name.Substring(0, args.Name.IndexOf(",")) + ".dll";
break;
}
}
needAssembly = Assembly.LoadFrom(assemblyTemporalPath);
return needAssembly;
}
[/Csharp]

Es el caso para un Assembly (myAssembly) que pudimos cargar con un Assembly.LoadFile(DllBasePath + “\DllName.dll”), y que al recuperar sus tipos e intentar instanciar uno de ellos con Assembly.CreateInstance() ha intentado acceder a otra DLL de la que haga uso o herede. Si la ubicación de esa DLL no coincide con los tres casos que especificábamos antes, la carga dará un error. Será entonces cuando entre en acción el manejador del evento AssemblyResolve y llevará a cabo la carga de las DLLs necesarias para continuar con la creación de la instancia de nuestro objeto.

martes, 25 de agosto de 2009

Examinando los ADS

Hace unos días veíamos cómo podíamos crear varios streams alternativos de datos o ADS en un fichero dentro de un sistema de archivos NTFS. Aunque el manejo y creación de los streams es simple, lo cierto es que los sistemas operativos de Microsoft no han incluido una gestión de los mismos orientada al usuario hasta Windows Vista, y aun en Windows 7 el soporte es mínimo. Se trata, ciertamente, de una característica no destinada al usuario común de los sistemas, sino más bien orientada a usuarios avanzados como los desarrolladores, pero a causa del desconocimiento de esta característica puede ser usada con fines menos benévolos de los que podría esperarse.


En la primera entrada creamos varios ADS sobre un fichero de texto, pero no éramos capaces de saber si un determinado archivo contiene o no ADS. Existe una forma bastante simple y fácil de constatarlo, que no es otra que intentar copiar el fichero a un sistema de archivos que no sea NTFS. En ese caso, Windows nos mostrará una alerta ante la pérdida de estos streams alternativos, si llevamos a cabo la operación:



De hecho, la inclusión de un fichero dentro de un ZIP, por ejemplo, también provoca la pérdida de los streams alternativos. Sin embargo, existe una herramienta que realiza una copia del archivo con sus ADS correspondientes: ntbackup, muy usada para realizar copias de seguridad y con la que tendremos oportunidad de enfrentarnos algo más adelante, cuando llevemos a cabo tareas de gestión de los ADS.


Si os fijáis, junto al nombre del stream se incluye la cadena :$DATA, es decir, está accediendo al bloque de datos del stream indicado. Si recordáis, existía un stream principal equivalente al bloque DATA de sistemas como FAT, que contenía los datos del archivo en cuestión. Por tanto, es posible “invocar” al stream principal del archivo llamándolo con



Mifichero.txt::$DATA

Lo que introduce un pequeño gran problema de seguridad en el acceso a los archivos. Uno de los problemas de anteriores versiones del servidor web IIS era que un usuario malicioso podía ver el contenido de cualquier archivo simplemente llamándolo desde la URL del modo siguiente:



http://miserver/fichero.aspx:$DATA

De hacer esto, IIS no era capaz de reconocer una llamada ASP.NET, por lo que el fichero no se interpretaba por parte del runtime y era servido directamente, quedando expuesto el código fuente.


Sobran las palabras si añadimos que no se trata de un método muy práctico para constatar la existencia de ADS en el sistema. Eso sí, nos sirve además para librarnos de los ADS, ya que el fichero resultante de la copia no los contendrá si decidimos restaurarlo a su ubicación original. Sin embargo, a partir de Windows Vista existe un nuevo parámetro sobre el comando dir, el /R, que permite obtener un listado de estos ADS.


Existen aplicaciones más avanzadas, que podemos usar incluso en Windows XP ó 2000, como LADS. Creada por Frank Heyne su descarga es gratuita y, como veremos, nos permite analizar un directorio y su contenido (con recorrido recursivo mediante el parámetro /s) , exponiendo todos los ADS encontrados y su tamaño. Como curiosidad, veamos su ejecución sobre algunos de los archivos usados en la entrada de introducción a los ADS:



Como veis, el fichero dinos.jpg incluye el identificador de zona que os comentaba, ya que fue descargado de Internet. Por otro lado, MiFichero.txt incluye otro ADS llamado Texto, con el texto del “hola mundo” que incluí en un primer momento en la entrada.



En cuanto al identificador de zona, como curiosidad, el valor se corresponde con la siguiente tabla:




0: Local Machine
1: Intranet
2: Trusted
3: Internet
4: Untrusted
1000 o superior: User Defined


También veíamos el otro día que era posible incluir otros archivos dentro de un stream usando copy o type. Sin embargo, el funcionamiento de ambos comandos no es el mismo. En la siguiente imagen podemos observar, gracias a LADS, que hemos incluido varios archivos en MiFichero.txt. Los de tamaño pequeño (Calculadora.exe, dinos, dinos.jpg) fueron llevados a cabo mediante un comando copy. El tamaño es mucho menor del esperado, y no contienen el archivo completo. Para incluir un archivo dentro de un ADS podemos usar el comando type. Es el caso de los streams calcu.exe y dinos2.jpg.



De hecho, es posible ejecutar la calculadora de Windows desde este stream. Para ello, usaremos la orden start indicando como parámetro el nombre del archivo que contiene el ADS y el nombre del stream. En el ejemplo siguiente vemos cómo, por motivos de seguridad, hay que especificar la ruta completa del archivo que contiene el ADS (la captura de pantalla de error se correspondería con la primera ejecución, que devuelve el mensaje de "Acceso denegado" en la consola de comandos, en el segundo caso se muestra la calculadora de Windows):




Incluso es posible comprobar, dentro de los procesos de sistema, que la calculadora en cuestión se ha ejecutado desde dentro de un ADS. A continuación muestro las capturas de pantalla del Administrador de Tareas del sistema



y del Explorador de Procesos de SysInternals.



Como vemos, los ADS ofrecen un interesante y amplio campo de estudio. En próximas entradas intentaremos centrarnos algo más en la programación y la seguridad.

domingo, 23 de agosto de 2009

ADS, una introducción

El sistema de archivos NTFS alberga algunas características que, no por poco conocidas por el usuario son menos usadas por los desarrolladores. Entre otras, cuenta con los flujos alternativos de datos, o Alternate Data Streams (ADS, también conocidos como named streams), que permiten adjuntar información de muy diverso tipo a los ficheros tradicionales. Los ADS van más allá de los metadatos, y permiten incluir tanta o más información como el fichero que los contiene, aunque sus características y, en especial, el escaso conocimiento o publicidad que se ha dado hasta la fecha sobre su existencia constituyen, como cualquier característica desconocida, una vulnerabilidad que puede aprovechar esta debilidad para llevar a cabo ataques sobre nuestros sistemas.


Ya que llevo tiempo deseando escribir sobre el tema, y debido a que en los últimos meses he andado con el blog “a medio gas” por diversos motivos y compromisos adquiridos, creo que lo mejor será presentar una introducción a los ADS para, a continuación, profundizar en el uso que podemos darles desde nuestras aplicaciones.


Como ya refería al comienzo, los ADS son una característica propia de NTFS, por lo que no está disponible en otros sistemas de archivos (FAT, Ext3, …). Es más, si un archivo creado en un sistema que use NTFS incluye uno o más flujos alternativos, éstos desaparecerán al copiar el archivo a otro sistema de archivos que no los soporte. Bueno, en realidad serán eliminados todos menos uno: el que tiene el archivo de forma predeterminada. Pero veamos en qué consiste exactamente un ADS.


En la siguiente gráfica, podemos ver cómo se estructura la información (datos y metadatos) de un archivo en FAT y NTFS. Vemos que en el antiguo sistema de archivos, un hipotético archivo de llamado “nombre.ext” contiene una serie de atributos (sólo lectura, archivo, oculto…) y un bloque de datos, es decir, el contenido real del archivo. En NTFS, por el contrario, el archivo contiene los atributos además de una información de seguridad (permisos) y una serie de streams asociados. El stream principal es el predeterminado que mencionaba antes. No tiene un nombre asociado y se correspondería con el bloque de datos del archivo en FAT. Es decir, al llevar un archivo NTFS a FAT mantendríamos la información de atributos y la del stream principal que se correspondería al bloque de datos, pero se perdería el resto de información, incluidos los streams o flujos alternativos. De hecho, este stream principal es obligatorio, y si por un casual creásemos un archivo directamente accediendo a uno de los streams con nombre (alternativos), el sistema crearía un stream principal de 0 bytes, vacío y sin nombre. Cabría señalar que los atributos se corresponden a todo el archivo, no al stream principal, por lo que todos los flujos son afectados por un cambio en aquellos.



Cuando un programa abre un fichero NTFS, realmente está accediendo al stream principal. Para acceder a uno de los streams alternativos debe interponerse un símbolo de dos puntos ( : ) entre el nombre del archivo y el del stream al que deseamos acceder. Al corresponderse los dos puntos con el identificador de una unidad, para acceder a un stream llamado “MiStream” dentro del archivo “C”, tendríamos que hacerlo con la secuencia con “C: MiStream”, pero el sistema siempre resuelve la ambigüedad creada dando prioridad a la identificación de unidades. Por esto, si lo que deseamos es acceder a un stream, deberíamos hacerlo con “.\C:MiStream”.


Por último, antes de entrar en algunos ejemplos sobre cómo usar los ADS desde el propio sistema operativo, indicar que los directorios también pueden tener asociados diversos ADS con nombre, pero no tienen ninguno principal o por defecto.


Desde la propia consola de comandos de Windows podemos crear y acceder a los ADS de un fichero o directorio. Obviamente, no es la mejor forma de hacerlo; sin embargo, los sistemas operativos Windows 2000 y Windows XP no ofrecen herramientas específicas para trabajar con esta característica de NTFS.


Podemos crear un archivo de texto normal y consultar su tamaño desde la consola de comandos:



Crear un stream alternativo, de nombre “Texto” con un contenido textual es tan simple como escribir sobre ese stream. Como puede observarse, un comando type solamente muestra el contenido del stream principal, el de datos. Para consultar el contenido textual del stream alternativo creado debemos usar el comando more (ni tan siquiera el type funciona, como veremos más adelante en otro ejemplo).



Si vemos el contenido del directorio, observaremos que el tamaño del fichero no ha cambiado, aunque sí la hora de modificación.



Es posible copiar un archivo dentro de un stream. Como vemos en el ejemplo, hemos incluido un archivo de imagen dentro del archivo de ejemplo sin que cambie su tamaño, considerablemente menor al de la imagen incrustada.



Por último, vemos que es posible ver el contenido del stream de texto, pero se nos hace algo más dificultoso recuperar el del binario con la imagen. En la próxima entrada veremos cómo podemos acceder a este contenido en particular.



Ahora bien: ¿para qué se usa, o qué usos podemos darle a los ADS? Bueno, en principio Microsoft introdujo los ADS en NTFS para dar soporte a funcionalidades avanzadas de sistemas UNIX, OS/2 y Macintosh, pero en la actualidad se le dan usos tan interesantes como incluir un identificador de zona (en el ADS Zone.Identifier) con información del la zona del mundo desde la que se ha descargado un determinado fichero de Internet. También algunos metadatos de los archivos, como el nombre de autor, título, comentarios, etc. son almacenados en respectivos ADS. En nuestro caso, como desarrolladores, deberíamos plantearnos la información que queremos almacenar en estos compartimentos y si es necesario realmente usarlos. En principio no debería incluirse información vital para nuestras aplicaciones, ya que una copia del archivo a través de un sistema que no use NTFS haría que se perdiese esta información. Tal vez podría sernos útil para almacenar información fácil de recuperar pero que, con el uso de los ADS, nos permite un acceso más inmediato. Sería el caso de las imágenes a pequeña escala para archivos de imagen (thumbnails), metadatos para documentos… De esta manera el archivo podría almacenarse en cualquier sistema de ficheros, pero en un NTFS mejoraríamos el rendimiento y el acceso a esta información no vital pero sí útil.


Esto es todo, de momento. En sucesivas entradas veremos algunas características más avanzadas de los ADS y, sobre todo, investigaremos un poco en torno al uso que podemos hacer de los mismos desde nuestras aplicaciones.

sábado, 1 de agosto de 2009

La decadencia 2.0

Ayer mencionaba de pasada el tema de los blogs y, en general, de las páginas enmarcadas en la web 2.0, que tras pasar por periodos de mayor o menor bonanza, con un número considerable de artículos mensuales y visitas diarias, llegaban a un punto, en muchas ocasiones de no retorno, en el que dejaban de actualizar sus contenidos, e iban languideciendo poco a poco hasta que sus incondicionales lectores terminaban por abandonarles. Otro problema existente en la web 2.0 y la profusión de información que generan las aplicaciones inscritas en ella es la generación de contenido sin interés, nacido de la mera repetición de lo escrito en otros lugares, cuando no en un descarado plagio que no lleva a ningún lado. La democratización de Internet, que llegó con las aplicaciones “sociales”, marcadas por la interacción con el usuario (con los usuarios, cientos, miles, que nos siguen) y con el propio autor de los contenidos, ha llevado a que se genere muchísima información, demasiada diría yo, y con esta avalancha informativa, perecen sepultados en ocasiones los contenidos más interesantes. Ni el buscador de buscadores, Google, es capaz en ocasiones de discernir entre la información de calidad y la paja.


Acabo de leer un artículo que me ha parecido, por lo demás, bastante interesante. Se trata de una reflexión en torno a este tema, que lo trata con profundidad y establece relaciones entre la crisis actual y la caída de los ingresos por publicidad, que al fin y al cabo son los que mantienen en multitud de ocasiones a las páginas web, les aportan beneficios o, por lo menos, llegan a cubrir los gastos generados por su mantenimiento. Lo encontraréis en Pons Asinorum.


Todos estos temas me parecen, por lo demás, muy interesantes, y dan mucho de sí. Aunque quiero huir del blog de opinión y de breves reseñas en el que se estaba convirtiendo Lobosoft, y volver al blog técnico, con artículos que puedan resultaros de verdad interesantes (permitiéndome algún que otro escarceo, claro está, con mis siempre presentes temáticas medioambientales), no me resisto a recomendaros alguna que otra lectura interesante, al menos cuando no la he visto repetida en infinidad de blogs justo cuando pienso en escribir sobre ella, claro está.


¿Qué pensáis vosotros sobre la web 2.0, ahora que parece que está viviendo los estertores previos a su ¿desaparición? ante los nuevos servicios de la nube y de la Internet en la que estamos a punto de adentrarnos?

viernes, 31 de julio de 2009

Campus Party 2009

Hace aproximadamente un año, cuando el blog estaba en su punto álgido en cuanto al nivel de publicaciones diarias con una o dos entradas como mínimo, se me pasó por la cabeza publicar una en relación a esto mismo: a la frecuencia de publicación, a cómo incide la misma sobre los buscadores y el ánimo de quienes nos leen y, por otro lado, hasta qué punto nos son fieles los lectores (o somos nosotros fieles lectores de otros) cuando baja el ritmo de publicación y llegamos a convertiros de bloggers en slowers ;) No sé cuánto tiempo pasan en vuestros lectores de RSS aquellos blogs cuyas fuentes no se actualizan con frecuencia. ¿Un mes? ¿Dos? ¿De forma indefinida? Puede que en ello influya lo que el blog nos aportó en otro tiempo, o si tenemos esperanzas de que en un futuro incierto, más o menos cercano, llegue a actualizarse.


Lo cierto es que Lobosoft ha entrado en un periodo de ralentización en la publicación de entradas, y en una forma de hacerlo más somera, entrando menos a fondo en los temas que trato, lo que no resulta ciertamente de mi agrado. Durante las pasadas semanas quería actualizar el blog, ya comenté algo al respecto, tanto a nivel de software como de entradas. Ni una ni otra cosa han sido posibles, por diversos motivos entre los que se ha contado una serie de acontecimientos inesperados en lo personal que, afortunadamente no han sido graves pero que han tenido por efecto el impedirme dedicar al blog el tiempo que hubiera querido. En fin, la idea sigue ahí: quiero seguir escribiendo, temas no faltan si duda alguna, y muchos se presentan bastante interesantes, así que a ver si me pongo las pilas con ello.


Desde Valencia (esto ya para daros algo de envidia), en la Campus Party 2009 (a ver si os cuento algo del finde), un saludo.


miércoles, 15 de julio de 2009

Pixel Qi

Cuando me hice con mi flamante Papyre (con el que ya he leído unos cuantos libros, y del que ya os iré dejando constancia de mi parecer), comentaba a unos amigos que al dispositivo se le notaba aún verde. Tanto por su aspecto físico como por la experiencia de usuario que aporta, aparenta ser uno de aquellos teléfonos móviles de gran tamaño que poco parecían predecir la revolución en las comunicaciones que estaban a punto de protagonizar. Les decía también a estos amigos que el futuro nos depararía pantallas a color (esto es más bien ya un presente cercano, aunque no tanto desde la perspectiva económica) y, posiblemente, los futuros portátiles serían menos dañinos a la vista si llegaban a producirse pantallas con una velocidad de refresco mayor, y el consumo energético se reduciría considerablemente (ya sabéis: mejora respecto al medio ambiente y, por qué no, para nuestros bolsillos), por lo que tendríamos mayor autonomía con las mismas baterías.



http://www.youtube.com/v/R7ZErQ5Kl6w&hl=es&fs=1&;rel=0


Al escepticismo de mis contertulios respondería ahora con la invitación a visitar las demostraciones en Internet de las pantallas Pixel Qi (pronúnciese Pixel Chi), uno de los baluartes en los que se basó el fallido proyecto OLPC de Negroponte, y que parece que están dispuestos a plantar batalla a partir del próximo año comercializando pantallas que convertirían nuestros portátiles y netbooks en eReaders que poco tendrían que envidiar al Hanlin V3, Kindle y similares (cuenta con dos modos de visualización, uno a color y otro en tonos de grises de alto contraste). ¿Un dispositivo multipropósito que nos permitirá leer cómodamente en cualquier sitio, trabajar y acceder a Internet, sin destrozarnos la vista? Parece que el futuro está aquí, y que es posible. Claro, que para poder leer en él adquiriendo los libros de forma legal, tanto el gobierno como el oligopolio de las editoriales tendrían que dejar atrás las ansias de llenarse los bolsillos con el vetusto modelo de negocio que llevan a cabo en la actualidad, y plantearse una adaptación a los tiempos que corren…

lunes, 13 de julio de 2009

I'm back

Bueno, he vuelto, y espero que esta vez para quedarme. Tras unos meses bastante inactivo, publicando alguna que otra entrada que, para más inri, resultaba demasiado insustancial para mi gusto, voy a intentar ponerme las pilas con Lobosoft. En este tiempo no he estado ocioso, sino que me he volcado el el benjamín de la familia. Mi blog sobre libros se ha visto fortalecido por las últimas lecturas e iniciativas que he tenido en mente, pero la llegada de un comentario ayer a Lobosoft, y el ver que empieza a quedar obsoleto el software en el que se sustenta (Wordpress lanza una nueva versión, muchos de los plugins también…), así como las ideas para nuevas entradas, que no han faltado, pero sí el tiempo para ponerme a ello, por lo que os comento y por otros factores que no vienen al caso, me hacen querer ponerme nuevamente a la labor.


Posiblemente el ritmo de actualización no llegue a picos como los vividos en estas fechas el año pasado, pero no quiero que ninguno de los blogs sufra demasiado por dedicarle tiempo a los otros. Además, hago esto por diversión, y para alguien como yo, que tiende a la dispersión (bueno, para hacerlo más bonito, podríamos decir que a abarcar todo tipo de temas), en ocasiones resulta más jugoso y divertido escribir sobre informática, y en otras sobre libros, historia o medio ambiente.


En los próximos días procederé a la actualización de todo el software que gestiona y hace posible el blog. Y a partir de entonces, espero escribir con mayor frecuencia.


Gracias por estar (y seguir) ahí.

jueves, 25 de junio de 2009

Moonwalker


Fue el rey del pop, un icono de los años 80, y coexistió con nuestros queridos 8 bits, marcando un antes y un después en la historia de la música. Mientras navegaba hace un rato por Internet, encontré la noticia del ataque cardíaco que acababa de sufrir Michael Jackson y los peores augurios no se hicieron esperar: el autor de Thriller acababa de fallecer.


Su figura despertó la expectación, también la polémica, pero sin entrar en apreciaciones acerca de su persona, lo que está claro es que era un genio de la música.


http://www.youtube.com/v/Zb9mE9_Q2w0&hl=es&fs=1&;rel=0


Aunque un tanto off-topic, permítaseme dar cumplido homenaje a su memoria de un modo un tanto peculiar, con su Moonwalker y los buenos ratos que nos dio acompañados por nuestro Spectrum.


Descanse en paz.

miércoles, 17 de junio de 2009

La gacela encontradiza


Hace tiempo que quiero escribir algunas líneas sobre el nuevo (novísimo) navegador que está forjándose en los hornos de alto rendimiento de Redmond. Se trata de Gazelle, el navegador que acompañará a Explorer 8 en el lanzamiento de Windows 7, y que promete convertirse en su sustituto. Resulta sorprendente que Microsoft anunciase hace unos meses que estaba trabajando en dicho navegador, máxime cuando acababa de lanzar al mercado su Internet Explorer 8. Sin embargo, Gazelle parece destinado a ocupar un lugar destacado entre los navegadores de última generación, como Google Chrome, ya que hace especial hincapié en la seguridad de ejecución de páginas y aplicaciones web, y podría estar destinado a ser el navegador de referencia con La Nube (léase con mayúsculas) de la Internet que está por venir (llamada Azure, por parte de los chicos de Bill).


Gazelle promete ser un navegador rápido y seguro. Actualmente cuenta con unos cuantos de miles de líneas de código en C#, por lo que su ejecución vendrá controlada por el .NET Framework imperante en el momento, el 3.5 y, muy posiblemente, preparado para el 4.0. En el sitio web de Microsoft puede encontrarse un PDF descriptivo con información sobre el navegador, incluidas algunas esquematizaciones del funcionamiento del navegador y su interacción con el sistema operativo, que podrá ser de momento MacOS o Windows ¿Para cuándo GNU/Linux? Chrome, inicialmente, también lo dejó de lado, tal vez por las expectativas que tiene Google con Android, y su posible incursión futura en el mundo de los sistemas operativos.



En cuanto a la seguridad, el navegador considerará cada parte del sitio web por separado (inframe, subframe y plug-ins), intentando minimizar los ataques XSS. En cuanto a su inclusión en Windows 7, parece ser que vendrá determinada por la imposición de la Comisión Europea de incluir navegadores de otras compañías junto al sistema operativo, si Microsoft desea incluir Internet Explorer, así como la posibilidad de que sea desinstalado. En resumen, la antiquísima batalla por los navegadores entre Netscape y Explorer actualizada a fecha de hoy.


Veremos lo que nos depara Gazelle en un mercado cada vez más repleto de opciones a la hora de escoger entre uno u otro navegador. Eso, y si no le sale al paso algún Cheetah browser ;)

miércoles, 3 de junio de 2009

Leer blogs desde un lector de libros electrónico


Un uso que se me antoja apetecible para un lector electrónico es, además de permitirme leer libros en formato digital, poder hacerlo con otro tipo de contenidos, como revistas o periódicos. En el sitio web de Grammata, distribuidores de Papyre en España, hay utilidades de conversión de formatos a PDF o FB2, los más usados en estos dispositivos, e incluso se pueden descargar algunos diarios y prensa on-line. Sin embargo, mis pensamientos van por otros derroteros, como utilizar el dispositivo para leer blogs y otras fuentes RSS. Hasta la fecha, he venido usando una combinación de Google Reader + iGoogle para mantener actualizadas mis fuentes RSS en modo conectado, usando el navegador del ordenador para leer los blogs, y pRSS Reader para hacerlo desconectado, bajando los contenidos de los blogs a mi PDA para leer tranquilamente en la cama, o mientras viajo en transporte público. Así, ¿será posible seguir los blogs que leo habitualmente mediante el Papyre? La respuesta es sí. Existen varias formas de hacerlo, y de momento me he centrado en la más sencilla (ya llegará el tiempo de las florituras informáticas), que no es otra que usar una herramienta que realice la descarga y conversión a FB2 de los feeds que leamos habitualmente.


Para la prueba he usado GoodNews, una aplicación gratuita, de origen ruso (mis amigos se están poniendo las pilas con la especificación del formato FB2 y las herramientas surgidas en torno al mismo), que puede descargarse desde su sitio web, y se instala con un par de clics. El típico asistente de “siguiente, siguiente, aceptar”.


Una vez instalado GoodNews, accedemos al programa y vemos que consta de una interfaz muy sencilla, en la que podemos crear una jerarquía de periódicos, que yo asociaría a categorías y subcategorías (a modo de carpetas o directorios), y dentro de cada uno de estos nodos añadimos una serie de fuentes RSS que queramos asociarles.



Hay que especificar la URL exacta del feed RSS, no basta con el dominio. Es decir, para www.lobosoft.es, la aplicación no es capaz de buscar la ubicación de las RSS, sino que hay que indicársela: www.lobosoft.es/feed. La ruta cambiará de un blog a otro, y lo más cómodo es usar el enlace que tenga a la fuente RSS, y si no existe ningún botón o enlace en la página web que nos lo haga accesible, examinar el código fuente de la página y buscar dentro de las etiquetas LINK de la cabecera, el enlace que contenga una referencia a RSS. Será algo del tipo:



[link rel="alternate" type="application/rss+xml"
title="RSS 2.0" href="http://www.lobosoft.es/feed/" /]

Hecho esto, validamos la URL, y automáticamente será descargada la información del sitio web, como el título y una breve descripción, si existe, y añadida a la ficha de configuración de la fuente.



Iremos agregando así las diversas fuentes que queramos tener en nuestro proyecto, cuya configuración podremos guardar de cara a futuros usos.


Por último, podemos descargar uno o varios feeds, que serán almacenados en un fichero FB2, que pasaremos a la memoria de nuestro Papyre para leerlos cómodamente, sin cansar tanto la vista. ¿Apetecible, verdad?



Bueno, hay alguna pequeña traba en todo esto. Por un lado, la actualización del Papyre, incluyendo posteriores fuentes RSS o descargando nuevas entradas de los blogs ya configurados, debe hacerse manualmente, por lo que resulta menos ágil que con el pRSS Reader o cualquier otra aplicación que tenga acceso directo a la red. GoodNews la tiene, es capaz de automatizar la descarga de nuevos contenidos, pero “volcar” el archivo FB2 resultante a nuestro lector electrónico debe hacerse a través de un lector de tarjetas, o de la conexión USB que incorpora. De todas formas, en otros lectores electrónicos y futuras versiones de éste, posiblemente sea un aspecto tenido en cuenta, porque es uno de los usos que veo más interesantes para los e Readers (además del básico y fundamental, que es la lectura de libros, claro está).



El otro problema que he encontrado es que la aplicación usa directamente el feed del sitio web, y si tiene los artículos cortados en el feed (no tiene porqué ser así en la vista normal del contenido) con el típico “Leer más…” y el enlace a la entrada, se descargarán incompletos al FB2. pRSS reader es capaz de localizar las entradas y descargarlas por completo, así que es una limitación por parte de GoodNews que no sea capaz de hacerlo.


En cualquier caso, quiero probar otras formas de actualizar nuestro Papyre con fuentes RSS, así que espero solventar este pequeño problema de una u otra forma.


Para finalizar, os dejo con una serie de enlaces relativos al uso de feeds cortados o no, muy interesantes para los que mantenemos algún blog que otro de forma habitual.

lunes, 1 de junio de 2009

¿Qué le está haciendo Internet a nuestros cerebros?

Descubro, a través de El cultural de Nerea, un interesante artículo de La Ventana: ¿Qué le esta haciendo Internet a nuestros cerebros?


Es un tema que he tratado en ocasiones con algunos amigos: ¿cómo influye la forma en que leemos en la pantalla, en Internet, sobre nuestra forma de leer, interiorizar y, por fin, aprender? ¿Habéis notado que leéis u os aproximáis de forma diferente a un texto de unos años a esta parte? Algún día me gustaría ahondar un poco más en todo esto. De momento os dejo con el artículo.

La red se mueve

Vivimos días de movimiento en la red de redes. Por un lado, Microsoft se lanza al ruedo de los buscadores, dando carpetazo al proyecto Live Search, que sustituyó en su día a MSN Search y que, como aquél, resultó un proyecto fallido (y no me extraña, porque era un poco regularcillo). Ahora ve la luz Bing, el Microgle, por decirlo de alguna forma. Es decir, el equivalente de Google para Microsoft, de aspecto agradable (parece ideal para planificarnos un viaje por vacaciones), y con algunas opciones interesantes en la búsqueda. Habrá que ver en qué algoritmo se basan para presentar los resultados de búsqueda, pero a priori parece rápido, y ofrece páginas de resultados muy similares a las de Google.



Pero el grande de los buscadores también tiene una oferta que hacernos: Google Wave, o la integración de todos los sistemas de comunicación conocidos: ¿Cómo se concebiría un conglomerado de e-mail, SMS, blogging, twitter, grupos de discusión, news y redes sociales varias? Pues con Wave, con el que Google quiere atraernos a una nube conceptual, donde no sólo residan las aplicaciones, sino también el concepto de uso de las mismas.



Inicialmente, la propuesta es muy aparente, aunque para quienes prefieren no mezclar churras con merinas, como es mi caso, inicialmente no resulte del todo apetecible. Si no quiero un móvil con cámara digital, reproductor de MP3, GPS, pantalla táctil y acelerómetro, sino únicamente un cacharrito que me permita llamar y recibir llamadas, y opto por tener el MP3 en otro dispositivo independiente, ¿por qué iba a querer mezclar correo con redes sociales, por poner un ejemplo? Tras los lanzamientos de nuevas herramientas de Google, siempre ingeniosas, y el buenrrollismo del código abierto y el abrazar todos los estándares habidos y por haber, Google se me antoja como un inmenso gestor de información, del que no me queda muy claro hasta qué punto se impone (o impondrá) límites a sí mismo a la hora de gestionarla y obtener información para el que, hasta ahora, parece su único negocio rentable: la gestión de búsquedas y, por encima de todo, la publicitaria.


Lo que es indudable es que tendremos que echarle un vistazo a fondo cuando lo lancen de forma definitiva. Hay nuevos aires en la red, que no podemos dejar pasar.


Para saber más:



martes, 26 de mayo de 2009

Las cosas de los CAPTCHAs

Acabo de escribir un comentario en el blog de GigA,  y me ha salido un CAPTCHA muy curioso:



El AdSense ha llegado al punto de mandarnos mensajes subliminales en los CAPCHA: ¡Cómpralo! El consumismo en estado puro ;)

Leyendo electrónicamente...

Llevo un tiempo sin actualizar el blog de forma continuada, y la verdad es que ya iba siendo hora de escribir algo en el mismo. Aunque tengo varios artículos en mente, el caso es que me he quedado sin ordenador por un tiempo. No, no se ha roto, ni nada por el estilo. Se me olvidó el portátil en casa de mis padres, y hasta que vuelva… bueno, tendré que ir “robando” el de mi pareja para actualizar y escribir un poco. El caso es que no todo es malo, ya que a los artículos que tenía en mente se le suman unos pocos relacionados con el aparatejo que tengo ahora mismo al lado. Y es que, en un alarde de generosidad (o puede que por tenerme callado un rato :D), mi pareja me ha regalado un precioso (bueno, la verdad es que se parece un poco a una calculadora) y práctico (esto sí que es cierto) Papyre 6.1. Vamos, un Hanlin V3 distribuido en España.



El lector de libros electrónicos es una pasada. Simple pero efectivo, cumple con prácticamente todo lo que necesitaba de un dispositivo como este. Se lee genial en él: con su contraste, la sensación de lectura es como la de un papel verdadero, no cansa para nada la vista, y lo único que se le echa un poco en falta es una velocidad de refresco mayor al pasar de página. No tiene pantalla táctil, ni WiFi, ni Bluetooth, ni nada por el estilo. Un sencillo cable USB (eso sí, podría ser 2.0 y no 1.1) es todo lo que necesita a nivel de conectividad. No me cabe duda que los lectores del futuro superarán con creces a este dispositivo, que es la antesala a un mundo fantástico donde se podrá leer con mayores resoluciones y comodidad, pero sus pros superan a los contras: una autonomía de unas 10.000 páginas, sencillez de operación, actualización del firmware sencilla (de hecho, ya estoy salivando tras echar un vistazo a OpenInkpot), facilidad de programación con su SDK (al fin y al cabo, lleva un GNU/Linux en su corazoncito, una poco conocida y minimalista distro Wolf Linux), y una amplia variedad de formatos que leer: PDF, RTF, Word, FB2, PPT, …


Ya os iré contando mis peripecias con el aparatejo y, sobre todo, los tejemanejes tecnológicos en los que me vaya metiendo en lo sucesivo.

viernes, 22 de mayo de 2009

Por un futuro más justo

Jane Goodall, la primatóloga que ha dedicado su vida a estudiar el comportamiento de nuestros primos cercanos, los chimpancés (es, a esta especie, lo que Dian Fossey a los gorilas de montaña), promueve desde su Fundación el reciclado de teléfonos móviles. Como ya sabéis, el Coltán es un mineral muy escaso, componente fundamental de móviles, ordenadores portátiles y otros dispositivos electrónicos, y mueve grandes intereses y guerras en África.

Por ello, os dejo la noticia porque creo que es lo suficientemente interesante como para que se le dé difusión y apoyo.

¡Saludos, y buen fin de semana!

miércoles, 13 de mayo de 2009

¡Ordenadores para todos!

Entre las noticias que el Presidente del Gobierno hiciese públicas durante el Debate sobre el Estado de la Nación destaca una que, por afinidad a los contenidos del blog y al propio desasosiego que me creó, no puedo resistirme a comentar hoy. Se trata de la iniciativa de otorgar a las familias españolas un “cheque digital” de 50€ por niño y ayudas a la concesión de créditos de bajo coste para la adquisición de ordenadores portátiles que contribuyan a que los niños estudien, en casa y en el aula. Ante esto, me vienen a la cabeza una serie de situaciones, pasadas, presentes y futuras, que no dejan de inquietarme.


La primera, como no podía ser menos, es el actual analfabetismo digital que sufre el país. Por llamarlo de algún modo, esta carencia de conocimientos sobre informática en España es una rémora que venimos sufriendo desde que Infovía era lo más parecido a Internet que teníamos aquí y de aquellos tiempos en los que la conexión a Internet era, a la par que penosa (¡ay, qué fue de aquellos modems a 56Kb!) extremadamente cara. Ah, cierto, salvando las distancias, hoy día sigue siendo cara para el servicio que ofrece, comparativamente hablando, claro está, con respecto al resto de Europa. Obviamente, España necesita modernizarse, entrar de pleno en las nuevas tecnologías, y esta es una labor que debe llevarse a cabo fundamentalmente con los niños. Hasta ahí, totalmente de acuerdo, por más que éste y anteriores gobiernos hayan hecho caso omiso a estas necesidades de modernización.


Dicho esto, y partiendo de la necesidad de acercar la informática a los niños y jóvenes, me embarga un sentimiento de “Abuelo Cebolleta” que me lleva a plantearme cómo hemos llegado a un punto tan crítico en la falta de educación de estas generaciones. No hablo ya del acercamiento a las tecnologías, sino de materias básicas. Los diversos cambios organizativos y estructurales impulsados por las distintas legislaturas han llevado al sistema educativo español a un nivel de paupérrima calidad. Cada vez se enseña menos y peor. Los niños, los jóvenes (y hablo en general, obviamente existen honrosas excepciones que confirman la regla) a día de hoy escriben y se expresan peor, tienen menos conocimientos que antes, menor comprensión lectora… En general, y valga la redundancia, no “aprenden a aprender”. ¿Solucionará esto la introducción de los ordenadores en las aulas? Sinceramente, no lo creo. En mi caso (personal y particular), no me considero un negado para la informática. Para bien o para mal, aquí me tenéis, con más de 20 años a las espaldas de quemarme las retinas frente a monitores TFTs y CTRs, pantallas de fósforo verde y televisores (en los tiempos gloriosos de los 8 bits es lo que había :P), por devoción y profesión dedicado a la informática, y a día de hoy no concibo aprender frente a un ordenador. Aprender, entiéndase, leyendo libros o usando cursos on-line. Y que conste que he sido alumno de numerosas acciones formativas a distancia, con plataformas de todos los sabores, e incluso durante unos cuantos años me dediqué a la docencia, usando entre otros recursos formativos estos portales y otros contenidos multimedia. Sinceramente: se asimila un 50 ó 60%, siendo generoso, de lo que sería posible con un medio más tradicional, y de este porcentaje se retiene una ínfima parte. Entonces, ¿no es posible aprender con un ordenador? Mi respuesta es que sí, pero depende de cómo y de qué, los resultados serán mejores o peores. A todo esto habría que sumarle la reticencia del profesorado (como en el caso anterior, generalizo pero por desgracia la tendencia es la que describo) a reciclarse, a acercarse y aprender sobre nuevas tecnologías. Triste pero cierto, los docentes no quieren ser discentes para mejorar en su trabajo.


Por último, y pasando a un plano más técnico, se me ocurre pensar en qué condiciones establecerá el Gobierno a la hora de otorgar las ayudas, o seleccionar los equipos que deberán usar los alumnos. ¿Se decantará por una alianza con Microsoft u otras grandes compañías de software para preinstalar en los equipos el sistema operativo y software ofimático necesario para sacarles partido? ¿Pagaremos de nuestro bolsillo 100 milloncejos de euros al año en licencias? ¿O se optará, como ya están haciendo las Comunidades Autónomas de Extremadura, Andalucía y  la Comunidad Valenciana con sus distribuciones de GNU/Linux, por promocionar  y usar software libre? ¿Y el hardware? Se habla de portátiles (infiero que netbooks), muy prácticos pero a la vez difícilmente actualizables. ¿Qué ocurrirá con los equipos que vayan quedando obsoletos? ¿Se obligará a los distribuidores a garantizar su reciclado? ¿Se exigirá que cumplan con directivas internacionales en torno a eficiencia energética? Muchas preguntas y muy pocas respuestas.


A vosotros, ¿qué os ha parecido la noticia? ¿Cómo enfocaríais un proceso de enseñanza guiado por medios informáticos? ¿Qué tipo de requisitos exigiríais a los equipos y al software instalado en los mismos?



Para leer más sobre esta noticia, y conocer algunas posturas al respecto:




Actualización, a 19 de mayo de 2009:

He encontrado un par de recursos interesantísimos en torno al aprendizaje utilizando libros electrónicos, que me encantaría compartir con vosotros:

miércoles, 6 de mayo de 2009

Recursos interesantes

Aquí me tenéis estrenando la opción "QuickPress" de Wordpress, es decir, la de publicación de entradas rápidas y sin demasiada miga. Lo hago simplemente para recomendaros, en un momento, una interesante web que acabo de descubrir y que contiene una serie de Guías de Buenas Prácticas en desarrollo, diseño de arquitecturas, seguridad...


Se trata de la wiki Guidance Share, y podéis encontrarla en el enlace que os dejo.



Saludos.

martes, 5 de mayo de 2009

Escritura social


La expansión de la web cada vez colaborativa que estamos viviendo en los últimos años parece no alcanzar límites. La generación de contenidos se lleva a cabo, de momento, de forma democrática y espontánea, por lo que el volumen de información que alberga Internet crece de forma prácticamente exponencial. Ante tal avalancha de datos, se hace preciso refinar los métodos de búsqueda, selección y valoración de los contenidos, algo en lo que trabaja nuestro amigo Google, pero en lo que también colaboran los usuarios, a través de recomendaciones, enlaces cruzados, meneameses y similares herramientas. No cabe duda de que en los próximos años deberían aunarse esfuerzos en aras de conseguir una mayor optimización en la faceta organizativa de Internet, o correremos el riesgo de perecer en un naufragio de información, saturados por la tormenta digital que se nos viene encima.


En cualquier caso, la profusión de redes sociales de todo tipo que vivimos hoy día, y que nos lleva a vivir una existencia 2.0 paralela a la real dotada cada vez de mayor peso, alcanza a (casi) todos los aspectos de la vida. Entre ellos, al de la escritura colaborativa. No hablo de las wikis, que han mostrado su eficiencia a la hora de compartir información y permitir la colaboración activa de los usuarios para generar contenidos de calidad, ni de medios más obsoletos de crear contenidos comunes, como el recuerdo grato de una Internet 0.1 en la que, a través de una lista de correo (la Lista Tolkien), una serie de compañeros creamos una especie de libro colaborativo, que surgió de forma espontánea a través de los mensajes de correo, y que derivó en la llamada Guerra de la Cerveza. Otra colaboración espontánea que resultó muy interesante fue la traducción conjunta de los poemas del libro de J.R.R. Tolkien Las aventuras de Tom Bombadil, y que, dada la calidad de la traducción, fue posteriormente publicado por Minotauro en forma de libro, cubriendo así un hueco editorial que los seguidores de Tolkien acusábamos desde hacía años.


Así, si es posible colaborar y trabajar en común en una Internet que se nos antoja a día de hoy prehistórica, si existen herramientas cada vez más poderosas para la escritura y edición conjunta (las wikis, los documentos compartidos de Google o de Microsoft Live…), ¿cómo no iba a surgir una red social en torno al proceso de escritura? Existe, y su nombre es SoopBook (Social Open Book Community). Esta red social se basa en la lectura y escritura colaborativa, en crear un libro, definir quiénes pueden verlo y editarlo, y comenzar a escribir. El resultado puede ir compartiéndose, se permite el espacio para la valoración y crítica (es de esperar que constructiva). En cierto modo se trata de la traslación al mundo de las redes sociales de conceptos ya existentes en cuanto a la publicación de contenidos, como las webs de publicación de relatos, o blogs usados como herramienta de escritura, con el aliciente de que, al encontrarse centralizado todo el proceso de escritura y lectura por parte de otros usuarios, se produce un flujo continuo de comentarios que puede retroalimentar a los escritores de forma inmediata.


Una interesante herramienta que, como todas las redes sociales, necesita del respaldo de la comunidad para existir. Bueno, qué, ¿escribimos un libro de informática en modo colaborativo?

jueves, 23 de abril de 2009

La economía del ahorro

En el mes de abril se unen dos días señalados, el de la Tierra, ayer mismo y el del Libro que se celebra hoy mismo, y que pueden, entre ambos, hacernos pensar un poco cómo podemos dar cumplida cuenta de ellos desde el blog y homenajearlos como merecen.


Por un lado, está claro que nuestro pequeño planeta está cada día más agotado. Los recursos son finitos y, tanto por esto como porque nos interesa desde todos los aspectos (medioambiental, económico, social…) deberíamos contener nuestro gasto de recursos para minimizarlo en lo posible.



Por otro, la aplicación el invento de Gutenberg a la impresión de los libros revolucionó literalmente el acceso a la cultura por parte de la población. Sin embargo, bien lo sabemos, el uso de la imprenta y sus “derivados” también repercutieron en el SPAM de épocas pretéritas: la publicidad indeseada, con el consiguiente desperdicio de papel y tinta, que tanto daño ha hecho al medio ambiente.
Si unimos ambas situaciones y tenemos en cuenta lo fácil que resulta hoy día instituirse en nuestros propios impresores utilizando ordenadores e impresoras a destajo, es fácil darse cuenta del despilfarro que llevamos a cabo en la impresión de correos y documentos (especialmente cuando se trata de borradores) en nuestro día a día. Así, aunque intentemos aprovechar las dos caras del folio o imprimir dos o más páginas, de forma reducida, en una sola, lo cierto es que seguimos gastando tinta y papel a destajo.

Por eso, además de utilizar estos medios por todos conocidos para minimizar un poco más el impacto sobre el medio así como para nuestro bolsillo, os invito a probar la Ecofuente. No, no se trata de un manantial inagotable de agua fresca y potable, sino de una tipografía para nuestro ordenador que, creando huequitos  en las letras como si de un queso gruyer se tratase, intenta ahorrar un poco de tinta cuando imprimimos nuestros documentos.



Ah, y si incluso Ecofont os parece poco, tal vez será de vuestro gusto la impresora manual de café. ¡Eso sí, es posible que ante un pico de trabajo nos quedemos sin suficiente tinta porque lleguemos a consumirla nosotros mismos!