viernes, 8 de octubre de 2010

Algunas falacias recientes en torno a la seguridad del formato PDF

Por Fernando Acero - Publicado el 06 Octubre 2010

El otro día navegando por la Red, me topé con esta noticia: Cientos de expertos en seguridad proponen acabar con el formato PDF, y he de decir que me dejó perplejo que "expertos" en seguridad propusieran acabar con un formato abierto, en lugar de mejorar las aplicaciones que lo usan.

El formato PDF es un estándar abierto definido mediante la ISO 32000-1 y es simplemente eso, un formato estándar y libre para contener unos datos que han de interpretar, o renderizar, otras aplicaciones. Sí, es cierto que las últimas definiciones del mismo permiten cosas relativamente "peligrosas", como la multimedia o la capacidad de ejecución de scripts (algo que muchos se habrían ahorrado, yo incluido), pero el problema principal no está en la definición del ISO 32000-1, es decir, en el formato, la inseguridad está en las aplicaciones que manejan ese formato, que hacen cosas que no deben en determinadas condiciones, y entre ellas, cuando se abusa de determinadas características del formato, algo sobre lo que Adobe debería tener muchas cosas que decir y hacer...

Señores, eso, nos guste o no, incluso cuando se abusa de las características multimedia o de script que permite el estándar, es un problema de las aplicaciones que deberían estar preparadas para esas circunstancias, no de del formato en sí mismo. De hecho, no todas las aplicaciones tienen el mismo comportamiento cuando tienen que procesar un PDF “malévolo” y no todas las aplicaciones que manejan los PDF, “hacen el mismo caso” del contenido multimedia o los scripts que pudiera haber en los archivos.

El caso es que llevo algunos días pensado en este artículo y mucho me temo que, además de partir de una premisa errónea cuando nos dicen que “el problema está en el formato pdf y no en las aplicaciones que lo manejan”, o dicho de otro modo, cuando le echan la culpa de los problemas del continente al contenido, creo hay grandes y claros intereses creados en la elaboración del artículo y la pista creo que está en esta afirmación que aparece en el mismo:

"Al igual que Flash, PDF se ha convertido en un estándar tan grande que ha atraído la atención de los 'hackers'. Unido a los progresos que ha realizado Microsoft para proteger sus códigos, lo han dejado en una posición muy vulnerable a pesar de los esfuerzos de Adobe."


Veamos; ya hemos dicho que el problema es de las aplicaciones que manejan el formato, no del formato en sí mismo, pero recomiendo este sencillo ejercicio de reducción al absurdo; cambiemos PDF por Windows, Microsoft por la Comunidad de Software Libre y Adobe por Microsoft en la frase y veremos lo poco que se sostiene la afirmación anterior:

Al igual que Flash, Windows se ha convertido en un estándar tan grande que ha atraído la atención de los 'hackers'. Unido a los progresos que ha realizado la Comunidad de Software Libre para proteger sus códigos, lo han dejado en una posición muy vulnerable a pesar de los esfuerzos de Microsoft”.

¿Cuántos de los presentes consideran que se debería retirar Windows del mercado por ser objetivo prioritario de los "hackers y ser un "estándar" tan grande, que lo usan el 98% de los usuarios?

Creo que soluciones para el problema hay muchas, y un buen experto en seguridad, en lugar de pedir “la abolición” del formato, se dedicaría a recomendar cosas para mejorar los programas que tratan con este popular formato, como no permitir la ejecución de scripts que no estén firmados, que los scripts no puedan realizar determinadas cosas sin el consentimiento del usuario, mejorar las características de seguridad de las aplicaciones y de filtrado del formato, etc, etc, etc...

"Copyleft 2010 Fernando Acero Martín. Verbatim copying, translation and distribution of this entire article is permitted in any digital medium, provided this notice is preserved"


Artículo original en Kriptópolis

Internet se queda sin direcciones

04/10/2010 | Wicho / Microsiervos

Años de planificación y trabajo para solucionar el problema apenas han supuesto avances

En azul los bloques con direcciones libres en enero de 2010



Cada uno de los ordenadores y dispositivos que se conecta a la Red necesita una dirección, que es como un número de teléfono que lo identifica, para hablarse con los demás.

En términos algo más técnicos es lo que normalmente se llama dirección IP y tiene la forma de cuatro números separados por puntos, como por ejemplo 98.134.56.12.

Los usuarios normalmente nunca las vemos porque existe un sistema llamado DNS que actúa como una especie de guía de teléfonos de Internet que nos permite escribir lainformacion.com en la barra de direcciones de nuestro navegador y se encarga de averiguar a qué dirección IP corresponde ese nombre y de pasarle esa información a nuestro navegador.

Esto permite que no tengamos que aprendernos esas direcciones, igual que desde hace años ya no nos aprendemos ningún número de teléfono gracias a las agendas que incorporan estos, y permite también que cambie la dirección IP de una máquina sin que suponga un problema.

El sistema, después de casi treinta años en servicio, funciona razonablemente bien, y salvo que algún servidor DNS falle, normalmente no somos ni siquiera conscientes de que está ahí.

Pero las direcciones IP que usamos en la actualidad, aunque permiten hasta unos 4.300 millones de números distintos, de los que por motivos técnicos sólo se pueden usar unos 3.700, son finitas, y desde hace años se sabe que van a terminar por acabarse.

Esto probablemente sucederá alrededor de 2012 al ritmo de crecimiento actual de Internet, que necesita unos 200 millones de direcciones nuevas al año, lo que en cualquier caso no tiene nada que ver con el fin del mundo supuestamente previsto por los mayas sino que es una coincidencia.

Por eso, desde mediados de los 90 se trabaja en una nueva generación del protocolo -las normas- que gobierna cómo son estas direcciones y cómo se usan, conocido como IPv6, y que tendrá que sustituir en algún momento al IPv4 que usamos en la actualidad.

Las direcciones IPv6 son lo que se denomina de 128 bits, cuatro veces más largas que las direcciones IPv4, que son de 32 bits, con lo que proporcionarán un total de 340 sextillones de direcciones, o lo que es lo mismo, unos 670 mil billones de direcciones por milímetro cuadrado de superficie de la Tierra, lo que en principio parece más que suficiente.

El problema está en que en los algo más de 15 años que han pasado desde que se propuso su adopción no se ha avanzado todo lo que se debería en ella y en solucionar los problemas inherentes al desarrollo e implantación de cualquier nueva tecnología, pues la versión anterior funcionaba y funciona lo suficientemente bien.

De hecho, se estima que un 99 por ciento de los dispositivos conectados a Internet en la actualidad funcionan sobre IPv4, con lo que va a ser imposible que la transición a IPv6 esté terminada antes de que se acaben las direcciones IPv4.

Así que aunque se han inventado técnicas y apaños que permiten que varios dispositivos se conecten a Internet usando una sola dirección IPv4, algo así como el que todos los teléfonos internos de una empresa usen una única línea y números exteriores, no va a quedar otro remedio que acelerar el ritmo de la transición a IPv6.

No será catastrófico, entre otras cosas porque todo está diseñado para que IPv4 e IPv6 convivan sin problemas mientras sea necesario, pero va a ser como una visita a un dentista cuando duele una muela: Ineludible a pesar de que sabemos que no nos va a gustar el proceso, pero con la esperanza de que todo sea para bien.

Como dicen en Ars Technica, no hay plan B y la cosa se va a poner fea.

Artículo original en lainformacion.com

4chan (aka Anonymous) organiza un ataque DDoS a la SGAE y el Ministerio de Cultura

PorJohns- Publicado el 07 Octubre 2010

En respuesta a los ataques recibidos en ThePirateBay (y seguramente tambien los de EzTV) durante las dos últimas semanas 4chan ya lleva unos días atacando páginas de la RIAA o allegados.

Ayer le tocó el turno al Ministerio de Cultura y la SGAE.

Pese a que el ataque estaba programado para las 23:00 UTC (imagen con la cita) el ataque ha empezado a media tarde.

La respuesta de la SGAE ha sido parar el servicio Web (screenshot, fuente 20minutos) pero ni así han podido evitar el cuelgue...

Las declaraciones oficiales son de victimismo puro y duro (podeis comprobarlo en las noticias -> 20minutos, LaVanguardia, ElPeriodico, etc..)

Personalmente he participado tan buen punto me he enterado (eso ha sido sobre las 21:00 hora española, al conectar estaba apuntando a www.mcu.es :P ) ya que como usuario asiduo de EzTV no veo el problema de ilegalidad, al contrario, me he comprado series... temporadas enteras, tras descubrirlas ahí.

Habrá quien opine que "esto es una tontería y hay que dejar que las cosas sigan por la via legal". Yo creo que tiene razón quien piense eso, pero esta tontería es para recordarles que también tenemos dientes, pero no los usamos por educación.

Artículo original en Kriptópolis

viernes, 24 de septiembre de 2010

Llega el proyector de vídeo de bolsillo

Más ligero que una tarjeta de crédito, puede ser utilizado en un teléfono móvil, en una cámara digital y hasta en un lector de Mp3 Un grupo de expertos ha creado el microproyector de video más pequeño del mercado, capaz de ser utilizado en un teléfono móvil, en una cámara digital y hasta en un lector de Mp3. Denominado “el proyector del futuro”, mide un centímetro cúbico y mejora la ergonomía, la visualización de los contenidos multimedia y el acceso a las fuentes de información de los usuarios desde su propio aparato. Según la compañía, estará en el mercado a finales del 2011. Por Guillermo E. Melis.

La Escuela politécnica federal de Lausana de Suiza (EPFL, por sus siglas en Francés), una de las instituciones europeas líderes en ciencia y tecnología, a través de su empresa Lemoptix, ha desarrollado el proyector de video más pequeño del mercado, según lo anuncia dicha escuela en un reciente comunicado del que también se ha hecho eco el sitio physorg.com.

En colaboración con el laboratorio de Maher Kayal, a principios de mes se logró perfeccionar este dispositivo, más pequeño que un chip de silicio, denominado “el proyector del futuro”. Esto tuvo una clara intención: ser integrado en los equipos portátiles y en los teléfonos móviles. Según la compañía, el consumidor final sólo podrá conocer sus beneficios a finales del 2011.

Este nuevo dispositivo permitirá la proyección de documentos y videos sobre una pared, muy similar al uso que se le da a un proyector fijo actualmente. Para la empresa lemoptix, el objetivo es mejorar dramáticamente la ergonomía, la visualización de los contenidos multimedia y ayudar al usuario a facilitarle un acceso más rápido a sus fuentes de información desde su propio aparato.

El tamaño de la imagen se puede ajustar mediante la distancia entre el proyector y la superficie de proyección. Así, de esta manera, la imagen queda sumamente nítida. Más pequeño que una tarjeta de crédito (su cabeza de proyección mide un centímetro cúbico), este nuevo avance busca ganar posiciones en el terreno de las proyecciones con cañón.

Es sumamente apto para ser incorporado en ordenadores portátiles, cámaras digitales y lectores de MP3. Pese al uso que se le puede dar a un teléfono móvil, la imagen del proyector se mantiene brillante y con una alta definición. Sus muchas aplicaciones van desde la industria del automovilismo a la sala de operaciones.

Espejos de exploración móvil

El secreto de los proyectores Lemoptix está en la posibilidad de utilizar luz láser de color RGB (Rojo, Verde y Azul) en vez de UHL o LED. Esto se debe a la utilización de espejos MEMS de exploración continua en lugar de un sistema de proyección matricial. Este sistema tiene un tamaño en píxeles más limitado que otros sistemas.

Un led es un dispositivo semiconductor (diodo) que emite luz incoherente de espectro reducido cuando se polariza de forma directa la unión PN del mismo y circula por él una corriente eléctrica. Este fenómeno es una forma de electroluminiscencia. El color, depende del material semiconductor empleado en la construcción del diodo y puede variar desde el ultravioleta, pasando por el visible, hasta el infrarrojo.

La tecnología MEMS (Sistemas Microelectromecánicos) deja a un lado al dispositivo LED. Consiste en una serie de espejos móviles que enrrutan los haces de luz de acuerdo con sus destinos. Los MEMS son independientes y distintos de la hipotética visión de la nanotecnología molecular o Electrónica Molecular. MEMS en general varían en tamaño desde un micrómetro (una millonésima parte de un metro) a un milímetro (milésima parte de un metro).Estos sistemas micro electromecánicos se están empezando a utilizar como base para la próxima generación de materiales ópticos.

El dispositivo, al estar encerrado en una urna de cristal pequeño, alrededor de tres milímetros por cuatro milímetros, oscila tan rápido que el rayo puede escanear una superficie de hasta 20.000 veces por segundo. El mes pasado, el equipo de de Lemoptix fue capaz de de generar con éxito una imagen en color con una resolución VGA de 640x480.

Aplicaciones varias

Este nuevo dispositivo de bolsillo brinda una funcionalidad a una distancia mínima de 50 centímetros, permitiendo la proyección de imágenes sobre una superficie similar a una pantalla de 15 pulgadas de un ordenador convencional. “La función del micro proyector mediante diminutos espejos de menos de un milímetro de espesor, situados en una disco de silicio (obleas), hacen reflejar el color rojo, azul y verde de los rayos láser”, explicó Maher Kayal, director de investigación de la EPFL.

Durante los últimos meses, el equipo de profesionales ha mejorado considerablemente la arquitectura del cabezal óptico que contiene las fuentes de luz láser y los espejos MEMS, por lo cual ha logrado reducir de esta manera el tamaño del conjunto y el consumo de energía del dispositivo.

Esta tecnología presenta diversas ventajas que pueden llegar a convertir en un verdadero éxito al proyector del futuro. "Este micro-elemento puede utilizarse en cantidad, incluso decenas de miles a bajo costo”, sostuvo Nicolas Abel, Director Técnico de la puesta en marcha. Por ejemplo, en el ámbito industrial, podría ser usado por los fabricantes de automóvil para proyectar información en el parabrisas, como la velocidad, datos del GPS, etc. También las empresas médicas han mostrado un sumo interés en esta nueva tecnología.

Además, la calidad del brillo y el contraste permitirán sustituir las pantallas de LCD. El equipo de Lemoptix ya esta pensando en crear una versión interactiva, capaz de permitirle al usuario tocar la imagen proyectada para ampliar la foto o cambiar la pantalla.

Otra de las ventajas, quizás la más importante en tiempos en los que el calentamiento global nos exige utilizar materiales renovables, es que este dispositivo de bolsillo utiliza muy poca energía, un 30% menos que la actual tecnología a base de LED. Esta solución que se está ultimando debería estar disponible para aplicaciones industriales en 2011 y al año siguiente para la electrónica de consumo.

Martes 21 Septiembre 2010
Guillermo Melis


Artículo original en Tendencias21

Stuxnet: el «ciber-arma» que se los está poniendo por corbata a media comunidad de seguridad e inteligencia

Lo acongojante del caso Stuxnet, una especie de medio virus medio gusano medio vaya usted a saber qué, no es su malignidad, bastante chunga según dicen, sino el tipo de ataque que está preparando.

La información es confusa cuando menos, pero según unos Stuxnet está diseñado para controlar procesos industriales, como los que gestionan aeropuertos, sistemas de generación de energía y refinerías (se menciona entre otros el software SCADA de Siemens); según otros, su objetivo final es destruir una planta nuclear en Irán. Cuando hice una nota rápida el otro día sobre el tema, todavía parecía simplemente un feroz hijo de puta, pero visto lo visto hoy casi se diría que es una amenaza mundial. Definitivamente, el MundoReal™ se parece cada vez más a Juegos de Guerra.

Igual que dicen que no debes asustarte al viajar en avión cuando hay turbulencias, sino cuando ves el miedo en la cara de las azafatas, aquí empiezan a leer análisis que no levantan precisamente el ánimo. ComputerWorld lo califica como el malware más malo maloso de todos los tiempos, un código diseñado por «un amplio grupo de expertos que sin duda le ha dedicado grandes recursos»; en Zerohedge hacen un excelente resumen donde lo describen como «un arma de precisión dirigida a destruir un objetivo del Mundo Real, todavía desconocido».

Hasta nuestro admirado Bruce Schneier, el mismísmo Chuck Norris de la seguridad informática, lo califica de «impresionante», tal vez el mismo tipo de impresión a modo de admiración que le dejaba a Ash la mortífera y letal precisión del Alien que llegó a la nave Nostromo.

Al parecer la «criaturita», que se detectó en junio pasado pero puede llevar muchos más meses dando vueltas por ahí, ha afectado ya a 45.000 sistemas de control industrial de todo el mundo, aunque principalmente en Irán, Pakistán, India e Indonesia. Según el artículo de ComputerWorld, Stuxnet utiliza no una sino cuatro vulnerabilidades de tipo zero-day (agujeros de seguridad totalmente desconocidos hasta el momento) localizadas en Windows para colarse en los ordenadores y propagarse por Internet.

Veremos en qué acaba el asunto, pero desde luego parece que ha pasado de ser una mera anécdota. Aunque imagino que si está ya detectado y localizado estarán analizándolo a fondo y tomando medidas en todas partes del globo para erradicarlo tan pronto como sea posible y evitar males mayores.

Publicado por Alvy # 24/Sep/2010

Artículo original en Microsiervos

Nueva vulnerabilidad Zero-Day en Windows
Process control / automation control systems /SCADA Security rootkit (Stuxnet) #in
Stuxnet: Primer virus pensado para sabotaje industrial y ciberguerra
The Stuxnet Worm

martes, 14 de septiembre de 2010

Los lectores de feeds van a morir (y Twitter empuñará el cuchillo)

Por Carlos Rebato el 11 de Septiembre de 2010

Quizá el título más exacto sería ‘Los lectores de feeds tal y como los conocemos van a morir a manos de un Twitter imparable que empuña un cuchillo ensangrentado’ pero coincidiréis conmigo en que es demasiado largo. No es ningún tipo de predicción aventurada, es un hecho que cada vez empieza a hacerse más evidente, por culpa de Twitter lo que hasta ahora conocíamos como lectores de feeds tales como Newsgator, Bloglines o Google Reader van camino de dejar de exisitir o como mínimo de ver reducido su número usuarios de manera más que significativa. Los datos: el primero desapareció el año pasado, del segundo conocíamos ayer la noticia de su cierre y el tercero pierde un 27% de las visitas año tras año por culpa de redes sociales como Twitter y Facebook.

¿Dónde está el cambio? No estamos hablando un problema de software, ni de usuarios, ni de calidad del contenido, estamos hablando de un cambio de la plataforma mediante la que se accede a ese contenido. Es decir, que se seguirán leyendo feeds, simplemente con otras herramientas, con otras posibilidades, con otros comportamientos y lo que es más importante, con otras reglas completamente distintas. Es un cambio que yo mismo he notado en los últimos meses, recibo muchísima más información de actualidad a través de una columna en TweetDeck que a través de mi Google Reader, y esa información la categorizo y la leo de manera distinta a como lo venía haciendo hasta ahora con este último.

Un buen ejemplo de esta tendencia es Flipboard, una maravillosa aplicación para iPad que justo lo que hace es recoger todos esos enlaces que nos llegan a través las redes sociales y los ordena y los muestra como si de una revista se tratase. Algunas observaciones que me parecen importantes a este respecto:

* El contenido se vuelve social y multidireccional: Un lector de feeds tradicional supone que el usuario escoja a qué medios quiere estar suscrito agregándolos a su lista. Con Twitter y Facebook además de eso está aparece una nueva y maravillosa variable en la ecuación, el contenido se vuelve social, está a merced de los usuarios, vibra con los usuarios, que lo retuitean, le dan un ‘Me Gusta’ en Facebook o lo comparten con los demás. Lo que antes era un flujo unidireccional (del medio al usuario) ahora es multidireccional (del medio a los usuarios, de los usuarios a los demás usuarios y del usuario de vuelta al medio, que recibe feedback).

* Una noticia sólo es importante si los usuarios deciden que lo es: Basta echar un vistazo a cualquier informativo en la televisión para ver como la importancia de las noticias está sujeta a intereses políticos, ideológicos e incluso religiosos. Con este cambio de paradigma la importancia la otorga el usuario, o mejor dicho, el conjunto de usuarios, se forma una inteligencia colectiva que define la importancia de una noticia compartiéndola con los demás, si no la encuentra de su interés simplemente la descarta y ahí se queda. Es decir, el usuario la lee de igual manera, pero no la comparte, en ese pequeño paso es en donde se apoya todo el proceso.

* Se descentraliza la opinión: Ya se habló de este tema cuando apareció la posibilidad de añadir comentarios en Google Reader. Pongamos el ejemplo de un blog, un post ya no recibe el feedback de los lectores sólo en los comentarios, sino que se extiende a Facebook, a los retweets en Twitter y a otros muchos campos, muchos de los cuales no estarán al alcance del que creó el contenido. En el caso de las marcas y las grandes compañías esto es especialmente traumático, algo que ya se ha visto durante un tiempo en los blogs, donde pierden todo poder de censurar opiniones desfavorables y que ahora no va a hacer sino acentuarse.

* De nuevo gana lo dinámico sobre lo estático: con Google Reader, a menos que lo pusieses en tus compartidos, una vez recibías la noticia a través del feed ahí se acababa todo, la leías y listo. De la misma manera que ocurrió con el cambio blogs/medios tradicionales, donde la noticia no sólo iba en la dirección del lector sino que volvía de vuelta en forma de comentario, aquí es más de lo mismo, la noticia en sí no se acaba con la transmisión en sí de la misma, sino que se extiende a todo el panorama social, donde adquirirá connotaciones que pueden estar muy alejadas de la original.

En el fondo la muerte de los lectores de feeds no es más que la señal de un cambio, nada traumático, las noticias siguen ahí, la opinión sigue ahí, lo único que cambia es la manera en la que ambas interaccionan entre sí y con los usuarios. Y es un cambio a mejor, una noticia ‘social’, una noticia sobre la que se opina siempre valdrá mucho más que otra que viene estipulada para satisfacer los intereses de vete tú a saber quién.

Artículo original en Alt1040

La «fiebre de lo instantáneo» se extiende por Internet, creando héroes a su paso

17:45h | Alvy / Microsiervos

Cuando Google lanzó la versión instantánea de su buscador pocos sospechaban que desatarían una pequeña locura de moda en herramientas de todo tipo que también ofrecen una «respuesta instantánea» mientras se teclea

Desde que Google lanzara Google Instant hace unos poco días con un evento dedicado a su puesta de largo una pequeña fiebre invadió la Red: la locura por lo instantáneo. Y es que en este mundo deseoso de las de gratificaciones fáciles y rápidas, obtener lo que se busca sin siquiera terminar de hacer la pregunta tiene su mérito. Y para algunos, hasta premio, en este caso en forma de oferta de trabajo desde una gran multinacional.

Lo primero que circuló por las redes tras desvelarse la nueva función de Google fueron diversas anotaciones recopilando el nuevo «alfabeto según Google», cual renovadas sagradas escrituras. Son las nuevas páginas que aparecen al teclear las letras de la A a la Z dejando que Google adivine el resto: Google Predictions From A to Z en inglés y Lo que más le importa a Google, de la A a la Z en español. Un mero aperitivo para lo que estaba por llegar.

Feross Aboukhadijeh, un estudiante de informática de Stanford, publicó en su página de Facebook un enlace a su pequeña creación: YouTube Instant, un servicio que hace exactamente lo mismo que Google Instant pero con los vídeos de YouTube. Lo programó en unas pocas horas, como una apuesta con un compañero de cuarto. Perdió la apuesta porque en vez de los 60 minutos que dijo que tardaría empleó varias horas, pero al poco tiempo surgió un inesperado «premio» de consolación. Empezaban los «dos días más increíbles y locos» de su vida, en sus propias palabras.

Chad Hurley, uno de los fundadores YouTube, había recibido un enlace a YouTube Instant a las pocas horas de que estuviera en marcha. Se ve que también le gustó, porque le ofreció un trabajo por Twitter a Aboukhadijeh. Tras comprobar su identidad y pensárselo un poco, el joven estudiante rechazó la oferta, porque está trabajando actualmente en Facebook como becario. Eso sí, tuvo la cortesía de ir a las oficinas de YouTube a echar un vistazo y conocer al gran jefe. Un curioso final para una «historia del éxito americana» en la que un desconocido salta a la fama desde la nada de un día para otro.

Además de la versión instantánea de YouTube también han surgido en la red Google Maps Instant, que busca en los mapas de Google las direcciones según se teclean y Twitter Instant, otro tanto pero para los mensajes publicados en el popular servicio de microblogging. Y otro quinceañero es el responsable de iTunes Instant, un buscador mejorado para la tienda de música de Apple.

Todos estos servicios, como los hechos han demostrado, son realmente fáciles de programar para la gente con los conocimientos adecuados. Pero adolecen de diversos problemas que pueden hacer que su éxito puntual sea tan efímero como su surgimiento: dependen de los buscadores de los servicios originales, que han de mantenerse rápidos y ágiles, y de las limitaciones que conlleven las interfaces de programación (algunas limitan los accesos a unas pocas consultas diarias, no miles o millones como pueden llegar a ser necesarias).

Rizando el rizo también ha surgido Instantise, un «instantizador», que básicamente convierte en instantáneas las búsquedas de diversos servicios como todos los anteriormente mencionados y también otros como el archivo fotográfico Flickr, sitios de noticias, artículos y demás. Algunos de estos buscadores instantáneos tienen todavía problemas técnicos y caídas; en ocasiones la calidad de las búsquedas tampoco es gran cosa, pues dependen totalmente del buscador original.

Veremos cuando pase la fiebre de lo instantáneo cuántos de estos servicios perduran y cuántos de los jóvenes héroes que los han creado de la noche a la mañana consiguen son atraídos por ofertas de trabajo. Según confirman fenómenos como YouTube Instant parece que las grandes empresas que cuentan con miles de empleados no son a veces suficientemente ágiles como para desarrollar ideas simples al alcance de cualquiera.

Artículo original en lainformacion.com

lunes, 6 de septiembre de 2010

Tecnología 3g (Internet móvil por celular): ¿mal chiste o nos toman por tontos?

Por Víctor Hugo - Publicado el 06 Septiembre 2010

De un año a la fecha las compañías de telefonía celular argentinas (eufemismo por compañías que "operan" en Argentina ya que son todas extranjeras), nos bombardean con publicidad y "promociones" induciéndonos a que adoptemos sus artificios técnicos para conectarnos a Internet "a velocidades increíbles con estabilidad asegurada".

¿El costo? Accesible y acorde al ancho de banda prometido: unos 45 Euros al cambio actual peso Arg./Euro.

¿La cobertura y/o alcance de señal? Buena en algunas, mala en otras y pésima en una particularmente y cuyo nombre cambió tantas veces que ya ni es claro a quien pertenece...

Las ventajas de este sistema sobre otros, cable, microondas, ADSL, fibra óptica, es más que evidente: hasta viajando en tren podemos navegar en la Red sin necesidad de cables ni antenas, un simple "cigarro" acoplado a un puerto USB y a gozar que la vida es corta. ¿Suena lindo no?

Quitemos "suena", también "lindo" y dejemos "no".
Todos los planes de todas las compañías (sin importar el costo, que varía según elijamos "limitado" o "ilimitado"), hablan maravillas de este sistema 3G, buscamos en el contrato y en Legales, en los manuales del modem y hasta quizás confiemos en los dichos del vendedor, nada nos parece negativo ni siquiera caro, nada, por fin algo práctico, veloz y cómodo......, tontos de nosotros si no buscamos la quinta pata al gato, que tener la tiene, y vaya que esa pata supernumeraria es molesta para el minino.

Quien no lee la letra chica (muchas veces NO hay letra chica sobre el particular, y si la hay es una aclaración confusa y desvaída), quien no teme a los asteriscos o a las "llamadas" en el texto, está perdido: la frustración lo hallará a la vuelta de la esquina, de esta o de la próxima cuadra. Hoy no sólo se debe temer a Dios, también a los "(*)", sean uno o varios, cuantos más, mayor ha de ser la distancia a tomar del "canto de Sirenas" que los tiempos modernos adornaron con los benditos asteriscos.
En criollo argentino y directo: podemos quedar engrampados por un año como mínimo, a algo que NO fue lo que nos ofrecieron en las publicidades.

¿Y por qué? "Su modem y conexión funcionan perfectamente señor, no observamos ningún problema en ambos, si persiste el fallo que nos refiere reinicie el sistema y borre la cache del navegador por favor, gracias por comunicarse con XXX, que tenga usted un buen día".

Respuesta semiautomática a todos los usuarios que observan cómo su notebook se arrastra en Internet como un gusano anestesiado.

Lo que no dicen las publicidades y puede que en algún grupo de asteriscos se mencione al pasar, por supuesto que sin hacer demasiado hincapié en lo técnico: consumidos 3 GB de información el ancho de banda/velocidad prometido/a cae de 3-4 Mb/s a 128 Kb/s hasta "el próximo ciclo de facturación".

"Bien señorita (siempre son señoritas enchufadas a un "cerebro mágico" que les da letra), ustedes me ofrecieron un plan ilimitado y estable, ¿por qué entonces si contraté 3 Mb y pago por ellos ustedes me limitan la velocidad cuando consumo 3 GB? ¿Puede usted pasarme con un supervisor o el departamento técnico?"

Llega el supervisor al teléfono, siempre y cuando lo encuentren o esté en la oficina de atención al cliente, es mucho pedir pero a veces se digna a atendernos: "señor, usted posee un plan ilimitado, puede navegar cuantas horas quiera sin costos adicionales".

-. "Eso lo sé, pero no explica por qué la velocidad se ha reducido tan drásticamente a menos de una semana de utilizar sus servicios".
-. "Es el sistema señor, nosotros no reducimos la velocidad ni el ancho de banda" responde el supervisor como si con tal argumento librara de culpa y cargo a todas las compañías que ofrecen la "maravilla" 3G.
-. "Bien, entonces cóbrenme el proporcional y no el valor nominal del plan, ya que estoy pagando por una contraprestación que no recibo" Intento inútil, ya conozco la respuesta.

Conclusión: nos prometen lo que no cumplirán, pagaremos por lo que no vamos a recibir, y, adicionalmente, dejaremos de recibir si la señal "llega con dificultad a su domicilio porque aún no terminamos de implementar el sistema de células en su zona" (y si se producen caidas del sistema no veremos ni un centavo de descuento en la factura por los días sin servicio).

Para terminar: he probado todos y cada uno de los servicios ofrecidos por cada compañía de celulares establecida en mi país, no hay variaciones en "mejor", sí en "peor", los 3 ó 4 MB son una ilusión óptica, la velocidad inexorablemente caerá por debajo de los 128 Kb/s y abrir una página tan simple como Google puede llevarnos hasta 10 minutos si hay congestión o estamos mal "orientados" (siempre hay congestión y desorientación en la Argentina), y, en el mejor de los casos, podremos enviar y recibir correo en texto plano a velocidad "normal" (ya no sé lo que es normal en mi país), pero el abono mensual seguirá por 12 meses fijo e inestable: es lo único que contradice las leyes de la física elemental, esa inestabilidad lo hace "caer" hacia arriba.

Saludos y por favor, cuenten sus desventuras "wi-firezcas" para no sentirme tan solo que mal de muchos...

Artículo original en Kriptópolis

Las marcas se vuelcan en la televisión 3D mientras el público aún paga los HD

ACHO PALOU (Microsiervos para RTVE.es) - BERLÍN 06.09.2010 - 17:16h

Estos días se celebra en Berlín la feria IFA, una de las mayores dedicadas a la tecnología y electrónica de consumo de Europa.

En IFA 2010 la televisión 3D -que proporciona "imágenes con efecto 3D"- ha sido la gran protagonista, aunque más en forma de indagar un poco más entre las tecnologías ya conocidas, las nuevas nuevas o las diferentes -y en el "aún más grande y brillante"- que en fórmulas para su popularización y acercamiento al gran público.

De momento todas dependen del uso de gafas para lograr que el efecto sea visible y no parece que sea antes de dos o tres años cuando la necesidad de éstas deje de ser un imperativo.

Por tanto la gran limitación para los televisores 3D, precios aparte, siguen siendo por un lado la dependencia de las gafas y por otro, y sobre todo, la limitada disponibilidad de contenidos. Tanto es así que en la feria se podían ver los mismos contenidos de demostración repetidos entre distintos fabricantes.

Con todo, marcas como Sony, Panasonic, Philips, Samsung y LG exponían sus últimos modelos de televisores y productos relacionados con la imagen y la televisión 3D, desde cámaras de vídeo domésticas (por planteamiento más que por precio) a proyectores, pasando por supuesto por televisores y reproductores Blu-Ray.

La guerra de las pulgadas y el menor grosor

Entre los diferentes anuncios y presentaciones, Philips contaba con la versión 3D de su televisor de 56 pulgadas Full HD en formato 21:9 presentado el año pasado por estas fechas. Samsung mostraba su línea de productos de imagen 3D, sin grandes novedades respecto a lo conocido aunque anunciaba siete modelos más de televisores 3D que llegarán a Europa a lo largo de lo que resta de año. Entre las novedades estará la pantalla de plasma de 50 pulgadas Full HD y, por supuesto, 3D.

En la "guerra de las pulgadas" LG demostraba estar poniendo toda la carne en el "asador 3D" con su prototipo de tecnología de plasma Multi Vision de 180 pulgadas en la que se exhibían espectaculares vídeos de documentales, películas y en los que los juegos en primera persona se disfrutaban en una nueva dimensión.

Pero el puñetazo en la mesa lo daba Sony "tridimensionalizando" su obscenidad vítrea de 280 pulgadas. LG además daba una vuelta de tuerca más a sus espectaculares televisores Full LED. Si hace apenas cuatro meses presentaba en Barcelona los modelos Full LED con tecnología 3D (LX9500), en IFA mostraba una evolución más, denominada NANO Full LED (LEX8), disponible en tecnología convencional (2D) y 3D.

Tecnologías LED, Full LED y NANO Full LED

Mientras que las pantallas LED convencionales recurren a una serie de puntos luminosos (LEDs) colocados en el perímetro interior de la pantalla, en torno al marco, para iluminar la imagen, las pantallas Full LED van colocadas sobre un panel completamente recubierto de éstos LEDs, los cuales cambian su luminosidad y tono según la imagen que se está representando. Incluso llegan a apagarse para lograr negros puros, algo imposible con la iluminación convencional.

De este modo se mejora la luminosidad y el contraste, lo que se traduce en una mayor calidad de imagen. Un paso más allá está la nueva tecnología de iluminación NANO que reduce el tamaño de los LED y aumenta el número de éstos.

Además incorpora una película con microperforaciones que aumenta el control sobre cada grupo de píxeles y reduce la dispersión para lograr una distribución más uniforme y controlada, por zonas, de la iluminación de la pantalla.

Otra de las novedades vistas en televisores fueron los modelos OLED. Si bien ya existían modelos de reducidas dimensiones -debido al alto coste de este tipo de pantalla- en IFA pudimos ver en vivo el LG 3D OLED TV de 31 pulgadas y de apenas 2,9 mm de grosor, campo de visión de 180 grados y una calidad de imagen espectacular. Aunque probablemente no lo suficiente como para justificar su previsible alto precio.

Además de a los televisores, el 3D ha invadido también productos relacionados con la imagen como son los reproductores Bly-Ray y los proyectores de pared que también pudieron verse funcionando y que ofrecen un resultando bastante bueno, con un efecto 3D más "familiar" por ser muy similar al logrado en el cine.

Aunque como en éste el efecto se pierde muy en parte en secuencias de imágenes rápidas como las propias de las películas de acción.

Una oferta muy por encima de la demanda

Si bien la oferta de productos relacionados con la imagen y televisión 3D es cada vez mayor, no parece que sea así la demanda de los consumidores finales.

No parece que sea el coste de éstos el principal inconveniente, sino más bien el hecho de que apenas haya contenidos más allá de algunas películas o eventos puntuales.

Los videojuegos podrían ser uno de los promotores de esta tecnología, pero aún es escaso el número de títulos y consolas que lo incorporan.

Los principales obstáculos son más la necesidad de utilizar gafas y el coste de éstas, que ronda entre los 100 y los 200 euros la unidad, y la evidencia de que aún es demasiado pronto y de que por tanto hay aún una excesiva variedad de tecnologías y modos de funcionamiento diferentes, que van cambiando muy rápidamente y que además son incompatibles entre sí.

Por ejemplo, lo "normal" actualmente es que gafas y pantallas de una marca sean incompatibles con las de otra.

Si bien un buen televisor 3D ofrece una experiencia satisfactoria, aunque esto parece ser muy subjetivo, y probablemente se convertirá en algo habitual más pronto que tarde, con tanto vaivén tecnológico en torno a su desarrollo -junto con la ausencia de contenidos- provoca cierta sensación de que la televisión o el cine 3D en casa sirve actualmente más como escaparate para las marcas, incluso como arma frente a la competencia, que como respuesta a una demanda, siquiera un deseo, del consumidor.

Artículo original en Rtve.es

jueves, 19 de agosto de 2010

Un nuevo tipo de microchip diseñado para computar procesando probabilidades

18/08/2010 | Alvy

Ofrece una forma más rápida y eficiente de resolver algunos de los cálculos y tareas en que los procesadores de hoy en día son ineficientes.

Normalmente, los microprocesadores que equipan los ordenadores y dispositivos electrónicos trabajan todos sobre unas bases digitales bien conocidas: los bits que en binario representan los unos y ceros que pueden almacenarse, las operaciones entre esos bits, la conversión mediante las llamadas «puertas lógicas» que los convierten en números, instrucciones que el ordenador procesa y demás. Y luego están todos los cálculos que han de realizar mediante programas específicos para las diversas tareas.

Ahora ha surgido un chip diferente, llamado Lyric, que está diseñado para «calcular procesando probabilidades», de modo que puede realizar directamente muchas de las tareas de los programas de hoy en día que tienen que ver con la lógica de probabilidades al manipular grandes volúmenes de datos, tales como filtrar el correo basura, detectar y corregir errores, generar recomendaciones o crear modelos financieros. Los microchips actuales ya lo hacen, pero de forma en cierto modo muy ineficiente.

La compañía que lo fabrica, Lyrics Semiconductor, tiene su origen en gente del MIT que consiguió 20 millones de dólares de financiación de DARPA, el departamento de proyectos avanzados de la Defensa de Estados Unidos.

La primera versión de Lyric que han puesto en el mercado es un sistema de corrección de errores para las memorias Flash. En este tipo de memorias, como las que incorporan las cámaras digitales o los «pinchos USB», su diminuto tamaño y su propia naturaleza hace que 1 de cada 1.000 bits se lea con un error. En realidad no hay problema porque un procesador se encarga de detectar el problema y corregirlo sobre la marcha, releyendo la memoria si es necesario. Pero todo eso consume tiempo y energía. Con el nuevo procesador especializado LEC (Lyric Error Correction) la misma tarea se puede llevar a cabo con una tasa de errores 30 veces menor y un consumo de energía de solo el 10 por ciento.

El sistema de Lyric funciona mediante procesamiento en paralelo, y dado que se basa en un rediseño completo de los circuitos muchas aplicaciones que hoy en día necesitan varios procesadores para funcionar o que serían demasiado lentas pueden verse mejoradas por estas técnicas, en un factor que calculan en unas 1.000 veces. Todavía pasará algún tiempo hasta que puedan poner en el mercado un procesador Lyric «genérico» que sirva para resolver diversas tareas de modo probabilístico, pero calculan que los siguientes modelos verán la luz en 2013.


Artículo original en La Información.com

miércoles, 18 de agosto de 2010

Microsoft Arc Touch, ¿es éste el misterioso ratón táctil?

Hasta que Microsoft no lo anuncie, el misterioso ratón táctil que os presentamos hace unos días no será un dispositivo oficial, pero parece que no queda mucho para ello a tenor de las imágenes e informaciones que han aparecido en una tienda online alemana.

El Microsoft Arc Touch aparece en forma de render con un diseño un tanto peculiar, ya que su estructura se puede modificar para asumir dos formas completamente diferentes: una ergonómica, típica de un ratón convencional, y una segunda completamente plana, ¿para transportarlo mejor?, eso podemos leer en el supuesto paquete de venta, ¿o quizás para aprovechar mejor la superficie táctil?, espero que salgamos de dudas en pocos días.

En la web se atreven con la fecha de salida, el 13 de octubre, y hasta con el precio, unos 70 euros, un precio parecido al Magic Mouse y el Magic TrackPad de Apple.

En cuanto a las especificaciones, sabemos que cuenta con un receptor (2.4GHz) que se conecta en el puerto USB y se guarda dentro del propio ratón, también vemos un indicador de batería, y la citada superficie táctil que reemplaza a los botones físicos y la rueda de desplazamiento.

Artículo original en Xataka

martes, 17 de agosto de 2010

Chiste geek

El pensador (Reloaded)

Crean un chip que descifra señales láser de fibra óptica

Ayudaría a remplazar las conexiones eléctricas entre los componentes de un ordenador.

Un chip de silicio podría revolucionar el mundo de la informática gracias a una nueva tecnología capaz de sustituir el cableado de cobre por fibra óptica. De esta manera, los datos electrónicos que llegan al chip se convierten en luz láser que viajan por una fibra óptica y se convierten de nuevo en señales eléctricas unos pocos segundos más tarde. Estos chips fotónicos de silicio podrían facilitar el intercambio de nuevos componentes sin tener que abrir una máquina. Por Guillermo Melis

Un grupo de investigadores liderado por Mario Paniccia, director del laboratorio de fotónica de Intel en Santa Clara, California ha desarrollado unos diminutos chips de silicio con el objetivo de codificar y descodificar señales láser a través de la fibra óptica, según se informó en un reciente comunicado.

La era de la informática podría dar un salto excepcional en los próximos años gracias a este nuevo dispositivo, que permitirá remplazar los cables de metal entre componentes por enlaces de fibra óptica, con un mecanismo que se cree será mucho más rápido y eficiente.

La fibra óptica presenta materiales mucho más económicos que los convencionales de cobre, de hecho son materiales ópticos más ligeros y finos, de modo que pueden ir muchos más cables en el espacio donde antes sólo iba un cable de cobre. Este conducto de fibra de vidrio tiende a transmitir impulsos luminosos normalmente emitidos por un láser o Led.

El uso de fibras en la era óptica produce amplias ventajas en las redes de telecomunicaciones. Entre otros beneficios, presenta una mayor seguridad en la transmisión de datos, una gran ligereza y flexibilidad y capacidad para detectar y localizar cortes, gracias a un proceso basado en la telemetría.

"Todas las comunicaciones a larga distancia se producen gracias al uso del láser, aunque nunca lo hemos usado dentro de los dispositivos", confiesa el Dr. Paniccia.

Chip fotónico de silicio

En la actualidad, el cableado de cobre se utiliza para transferir señales de datos a poco más de 10 gigabytes por segundo. Así, tanto la unidad central de procesamiento como la memoria de un servidor, no pueden estar separados; de esta manera la forma en que los ordenadores se deben construir se torna más difícil.

Los chips fotónicos de silicio ayudarían a remplazar las conexiones eléctricas entre los componentes de un ordenador, como sus procesadores y la memoria. "Los centros de datos hoy día son grandes montones de cobre, algo que impone una serie de límites a la hora de organizar los componentes dentro de un servidor", menciona Paniccia.

Cuando se utiliza un ordenador, los datos llegan a través de una conexión de fibra óptica; esa señal debe ser desplazada desde un dispositivo fotónico independiente a un circuito electrónico. Según los investigadores este nuevo método asegura acelerar el procedimiento, ya que todo funciona sobre silicio.

El equipo de Paniccia realizó una demostración del primer sistema de comunicaciones fotónicas elaborado con componentes completamente integrados en chips de silicio. Según la presentación, que tuvo lugar la semana pasada, los datos electrónicos que llegan al chip se convierten en luz láser que viajan por una fibra óptica y se convierten de nuevo en señales eléctricas unos pocos segundos más tarde.

Este sistema es capaz de transmitir datos a una velocidad de 50 gigabytes por segundo, lo suficientemente veloz como para transmitir una película de larga duración en menos de un segundo. "Tener un chip del tamaño de una uña y que pueda producir un terabit por segundo cambia la forma en que pensamos acerca del diseño", afirmó el líder del grupo.

Futuras aplicaciones

Los elementos del sistema Intel se fabrican con los mismos mecanismos de escultura de silicio utilizados para construir chips de ordenadores en grandes cantidades."Hemos desarrollado esta tecnología para que sea de bajo coste y podamos llevarla a todas partes, tanto al campo de la informática de alto rendimiento como a los centros de datos", informó el profesor Paniccia.

El desarrollo del chip de silicio podría facilitar el intercambio de nuevos componentes sin tener que abrir una máquina. Sobre estas bases también se podrían instalar los componentes centrales en los periféricos. A su vez, la memoria adicional podría, por ejemplo, ocultarse en un ordenador portátil para aumentar su rendimiento. "Si tan sólo pudiera mover la memoria a un pie de distancia de los procesadores, podría agregar una placa de memoria para una sola CPU", señala el Dr. Paniccia.

Keren Bergman, líder del grupo que investiga la fotónica de silicio en la Universidad de Columbia, afirma que los enlaces ópticos requieren menos energía para funcionar: "Con los cables eléctricos, cuanto más tiempo pase, más energía se gasta de forma exponencial". A su vez, añade que las mayores ganancias se han observado en aplicaciones como el procesamiento de imágenes de alto y ancho de banda y la transmisión de video.

Paralelamente, el profesor Ajay Joshi, asistente en la Universidad de Boston, sostiene: "Si aumentamos la velocidad del canal entre los procesadores lógicos y la memoria, tenemos que replantearnos la forma en que diseñamos la memoria (…). También sería bueno tener procesadores que funcionasen ópticamente en lugar de por vía electrónica", concluyó.

Jueves 12 Agosto 2010
Guillermo Melis

Artículo original en Tendencias 21

WiMAX tendrá su propio sucesor

por : Javier Pastor: 16 Ago 2010, 11:47

Aunque el avance y popularidad de WiMAX han sido frenados por el auge de la tecnología LTE tanto en Europa como en Estados Unidos, el WiMAX Forum espera tener la segunda versión del estándar disponible para 2012.

Declan Byrne, director de marketing del grupo WiMAX Forum, ha indicado que el estándar WiMAX 2, conocido formalmente como 802.16m, estará terminado por parte de la IEEE este mes de noviembre, mientras que los primeros dispositivos certificados aparecerán a lo largo de 2011.

A partir de ese punto Byrne espera que los ISP comiencen a implantar la nueva versión de esta tecnología inalámbrica a partir de 2012, momento en el que también se prevé que las alternativas LTE den el salto masivo al mercado. Veremos qué ocurre entonces.

Artículo original en The Enquirer

Windows 7 ya se usa más que Vista

Publicado: 05. Ago, 2010 en Microsoft

Windows 7 superó a Windows Vista por primera vez desde su lanzamiento -
Superó a su antecesor por primera vez desde su lanzamiento. De todas formas, el antiguo Windows XP sigue siendo el sistema operativo más usado del mundo.

Durante el mes de julio, por primera vez desde su lanzamiento el año pasado, Windows 7 superó en cantidad de usuarios a Vista, la versión previa del sistema operativo desarrollado por Microsoft.

El mes pasado, el 14,46% de las PCs conectadas a internet usó Windows 7, mientras que el 14,34% tuvo instalado Vista. Una diferencia mínima, pero que habla del importante crecimiento de la última versión de Windows, comparada con la anterior. Mientras que a Vista le tomó siete meses llegar al 4% de usuarios a nivel mundial, Windows 7 llegó a ese piso en su primer mes en la calle.

Sin embargo, los buenos promedios pueden resultar anecdóticos si se tiene en cuenta que los usuarios de Vista sumados a los de Win 7 no alcanzan al número de personas que no terminan de desprenderse de Windows XP. Aquella versión del OS de Microsoft, lanzada en octubre de 2001, sigue siendo la que mayor cantidad de usuarios tiene en forma global. Acumula el 61,87% de las PCs conectadas a internet.

Con estos números de julio de 2010, Microsoft sigue acaparando más del 90% de las PCs de todo el mundo, ya que todas ellas corren alguna versión de Windows. Muy lejos, con poco más del 5%, aparece Apple con sus equipos que utilizan alguna versión del Mac OSX. Más atrás, con el 0,93% están las PCs que corren alguna distribución de GNU/Linux.

Artículo original en Dattatec Blog

10 millones de virus nuevos en seis meses

Publicado: 11. Ago, 2010 en Alertas de seguridad

El primer semestre de 2010 dejó un récord en la cantidad de malware nuevo detectado. El nivel de Spam se mantiene, después de llegar a su punto más alto el año pasado.

McAfee dio a conocer su reporte semestral de amenazas informáticas, con un total de 10 millones de virus nuevos detectados entre enero y junio de 2010. Una cifra récord que habla a las claras del grave problema del malware en las computadoras, más allá de los esfuerzos de los fabricantes de antivirus y desarrolladores de navegadores web.

Sin quererlo, un evento deportivo acompañó el crecimiento del malware. La Copa del Mundo jugada en Sudáfrica inspiró a muchos hackers, que encontraron nuevas maneras de atraer a sus víctimas y sumaron muchos virus al listado de McAffe.

El Spam, que había tenido su crecimiento histórico más alto durante 2009, este año parece haber encontrado su meseta. Se mantiene en los mismos números que hace doce meses atrás.

La gran novedad llega por un cambio en el target de, al menos, un hacker. Cuando todos estamos acostumbrados a relacionar el malware con las PCs Windows, McAfee informó que detectó en abril la existencia del troyano OSX/HellRTS, que ataca Macs, las computadoras de Apple. El OSX/HellRTS más que peligroso es bastante molesto: se dedica a leer o modificar el contenido del portapapeles, o bien a abrir y cerrar la lectora de CD.

“Por varias razones, el malware rara vez fue un problema para los usuarios de Macs. Pero eso podría estar por cambiar muy pronto,” dijo Mike Gallagher, responsable de tecnología del departamento de Amenazas Globales de McAffe. Con respecto al troyano creado para atacar equipos de Apple, agregó, “No queremos exagerar la amenaza. Pero sirve para recordar que en esta era del cibercrimen, el robo de datos y el robo de identidad obliga a que los usuarios de todos los sistemas operativos y equipos tomen precausiones.”

Artículo original en Dattatec Blog

viernes, 13 de agosto de 2010

Internet explicado en 50 nombres (o algo así)

Internet es algo tan grande que hasta tiene varias fechas de nacimiento. 1969, 1972, 1989… cada uno de esos años supuso un avance en un proyecto que hoy explica la forma en la que se hacen muchas cosas, desde informarse hasta comunicarse, pasando por cómo se venden productos o cómo se conciben empresas. Pero dejando de un lado las discusiones históricas sobre la Red en sí, nada mejor que hablar de sus protagonistas para entender su presente.

Durante los últimos quince años hasta 25 páginas, aplicaciones y servicios han marcado el presente de la Red. En estos tres lustros decenas de proyectos fallidos se han ido quedando a los lados del camino, pero otros tantos han sobrevivido a la criba. Con la certeza de que alguno se queda en el tintero, aquí hay un pequeño recorrido histórico por la Red:

* El 18 de enero de 1995 nace Yahoo!, uno de los primeros grandes buscadores de la última era de internet (antes Terra, Altavista o AOL habían dominado el horizonte). Sumido en los últimos años en un eterno proceso de absorción por los matones del barrio (Google y Microsoft), en los últimos dos años ha conseguido reflotar y reinventarse a través de otros servicios. Actualmente sirve 7,3 millones de páginas al día.

El 16 de julio de ese mismo año nació Amazon, el megaportal de distribución de contenidos culturales del presente. Fundamentalmente libros, pero también películas y música, Amazon es el buscador por excelencia para encontrar el escrito deseado. Hace algo más de dos años lanzó Kindle, el primer gran lector de libros en formato electrónico. Roza los 10 millones de páginas vistas al día.

También MSN, el 24 de agosto, y eBay, el 4 de septiembre, vieron la luz en 1995. La primera página sería la apuesta para internet de Microsoft, desde la que lanzaría e integraría servicios como el correo de Hotmail, la primera cuenta de correo abierta y masiva, o Messenger, el primer programa de mensajería instantánea universalizado para los usuarios; actualmente sirve 2,7 millones de páginas al día, pero ha conocido mayor gloria en el pasado. La segunda página se ha convertido en el gran bazar de la Red, donde los usuarios pujan, compran y venden sus productos con grandes posibilidades de encontrar receptor: 18,7 millones de páginas al día lo avalan.

* El 17 de julio de 1996 nació Alexa, el gran medido en abierto de la Red. En estos 14 años se ha convertido en el gran notario, el que dicta cuántos ojos leen el contenido de los grandes, marcando el auge o el ocaso de los nuevos sitios. Como curiosidad, señalar que ellos mismos no miden su propia audiencia, algo que sí hacen con todos los demás.

* El 15 de septiembre de 1997 nació Google, el gran oráculo de la actualidad. En aquel momento no era más que una idea, un logaritmo algoritmo de búsqueda. Hoy es un enorme ente vivo, cuyos ojos son arañas que rastrean, indexan, valoran y representan los contenidos de toda la Red. Es la página de inicio de la gran mayoría de internautas y, en los últimos años, mucho más que eso: una fábrica de aplicaciones, un mapeado completo de la Tierra en mapas navegables, un navegador, una forma de concebir la telefonía, un sistema operativo en ciernes… Unos 12 millones de páginas servidas cada día avalan al líder absoluto de la Red.

* El 23 de febrero de 1998 Netscape Communications Corporation anunció el nacimiento de un proyecto sin ánimo de lucro, una fundación llamada Mozilla desde la que se desarrollaría el primer gran navegador web de código abierto con su mismo nombre. A pesar de la competencia (el monopolio de facto de Explorer y la pujanza de los dos gigantes, Chrome y Safari), Mozilla sirve algo más de un millón de páginas al día.

* El 23 de agosto de 1999 vio la luz Blogger. Por aquel entonces era una empresa más en plena eclosión de las ‘punto com’, pero fue algo más: fue la primera plataforma de blogs universal, gratuita y fácilmente manejable por el usuario. Gran parte del éxito de la difusión del fenómeno blogger y, por tanto, de la nueva forma de comunicarse en internet fue gracias a ellos. En plena cresta de la ola fueron absorbidos por Google, pasando a integrarse en el gigante y, con el tiempo, cediendo terreno ante la competencia… pese a ello sigue sirviendo 5,6 millones de páginas al día.

* El 14 de noviembre de 2000 empezó a cristalizar la mutación: la versión 6.0 del Netscape Navigator, desarrollado en fuente abierta, acabaría evolucionando, tras dos años de desarrollo de fuente abierta, en la primera versión de lo que hoy conocemos como Firefox. La mariposa acabó de salir de la larva un 9 de noviembre de 2004.

* Si Google es el inicio de toda navegación y Amazon el destino de todo lector, desde el 10 de enero de 2001 la Wikipedia es la respuesta de muchas preguntas. Esta idea sin ánimo de lucro que cada día recibe 4,4 millones de visitas está consiguiendo el ansiado objetivo de los antiguos ilustrados: reunir todo el saber de la humanidad y, además, en diversas lenguas y de forma colaborativa.

* El 22 de marzo de 2002 vio la luz Friendster, una de las pocas redes sociales que han conseguido sobrevivir al efecto Facebook. Como Orkut en Brasil, Tuenti en España u otros servicios similares como Hi5, Fotolog o Livejournal, por citar varios ejemplos, Friendster es la red social por excelencia en el continente asiático. Pese a estar tan geolocalizado, 7,4 millones de páginas al día avalan su éxito.

* Dos grandes proyectos definieron 2003. El primero, LinkedIn, nació el 5 de mayo y hoy en día es la primera red social destinada al ámbito laboral del mundo. El segundo, WordPress, nació sólo 22 días después, pero con el tiempo ha conseguido dejar obsoleto al mismísimo Blogger y a otros como Typepad. No sólo su nacimiento fue similar, ya que también sus cifras de crecimiento van parejas: ambas suman más de 8 millones de páginas al día.

* Como si fueran gemelos, el 4 de febrero de 2004 nacieron dos grandes proyectos que, seis años después, siguen pujantes. El primero, Facebook, definió y acotó el concepto de red social… y de paso, reunió a millones de usuarios en todo el mundo que le reportan 14,5 millones de visitas al día. El segundo en nacer fue Flickr, el gran portal en el que subir de forma gratuita y sencilla imágenes que reúne cada día a 8,4 millones de usuarios y que fue adquirido, en plena guerra de crecimiento, por Yahoo!

* Durante la primavera de 2005 florecieron tres nuevas ideas. La primera fue Rapidshare, nacida el 24 de marzo como un portal en el que los usuarios pudieran subir y bajar contenido; hoy en día el portal y sus 4,7 millones de usuarios diarios son uno de los mayores dolores de cabeza de la industria en la lucha contra la piratería. Menos de un mes después nacería YouTube, un portal para subir vídeos de forma rápida y sencilla que revolucionó la forma de ver la Red hasta que fue absorbido por Google. A pesar de las millonarias cifras de venta, las casi 16 millones de páginas al día parecen avalar la operación.

El 9 de mayo de ese mismo año nació The Huffington Post, un blog que acabó siendo una enorme red de blogs norteamericana, todos acerca de la actualidad política estadounidense. Un nuevo concepto de medio de comunicación que hoy en día iguala en cifras a The New York Times en la Red.

Con los calores del verano, concretamente un 28 de junio, vino al mundo uno de los hijos de Google. Se trató de Google Earth, una visualización dinámica y vía satélite de prácticamente todo el planeta, lo que supuso que al gigante buscador le comenzaran a llegar los primeros problemas en materia de seguridad y privacidad.

* El 31 de marzo de 2006 apareció Twitter, una red de microblogging que, pese a no aportar nada nuevo, está revolucionando -otra vez- la forma de comunicarse. Imaginen un chat en el que elegir quién te lee y a quién leer, pero con los carácteres limitados y todo ello con una interfaz muy primaria. Pese a que los ingredientes no parecen maridar con la palabra ‘éxito’, unos 6,3 millones de páginas al día dicen lo contrario.

* El 23 de enero de 2007 nace Politico, portal de noticias que se convirtió en uno de los medios de referencia en las últimas elecciones presidenciales celebradas en Estados Unidos -algo inimaginable tiempo atrás-. Las cifras no asustan, pero sus influyentes 2,3 millones de lectores parecen tener más peso en los pasillos de la Casa Blanca del que tienen los grandes líderes mundiales.

* El 7 de octubre de 2008 vio la luz Spotify, un servicio musical que traía consigo la receta para combatir la piratería haciendo lo mismo que los portales P2P, pero mejor. Con la inversión de las grandes discográficas, Spotify ofrece un servicio de música en streaming en el que lo interesante es el acceso a la música, no su descarga ni posesión. Existen contadas invitaciones gratuitas para probar el servicio, y una versión sin restricciones y con versión en móvil mediante suscripción. La idea ha arrasado en Europa y ya prepara su inminente desembarco en EEUU.

* El 11 de marzo de 2009 apareció el juguete más usado de la actualidad. Una aplicación llamada Foursquare y basada en la geolocalización que dice en cada momento quién está dónde y cuántas veces visita determinados sitios. Para quienes prefieren proteger su intimidad, a finales de ese mismo mes, concretamente el 28 de marzo, nació Google Wave, un subproducto de Google que pretendía cambiar la forma de entender el correo electrónico, fusionándolo de forma inteligente con la mensajería instantánea e implementándolo con aplicaciones de Google Docs. Más de un año después la idea sigue sin cuajar.

* El 9 de febrero de 2010 apareció Google Buzz, el Twitter del buscador. Aunque ha pasado poco tiempo desde su nacimiento, parece el segundo paso en falso del gigante… aunque en anteriores ocasiones ha demostrado sobrada capacidad para integrar varios servicios aparentemente inservibles en una idea global que realmente sea revolucionaria. Con un sistema operativo en ciernes Wave y Buzz pueden acabar teniendo más sentido del que parece.


La Red hoy en día tampoco se entendería sin la navegación fuera del ordenador, fundamentalmente en dispositivos móviles y, poco a poco, en tabletas. Aunque aquí habría que hablar de Palm, Blackberry y Android, quien revolucionó este mundo que ahora amenaza con revolucionar la Red en sí misma es Apple. Pero la compañía de la manzana y sus iPod, iPhone, iPad, Apple Store y iTunes compite en otra liga.

Artículo original en Blog de Borja Ventura

miércoles, 11 de agosto de 2010

Cuando el gobierno mexicano se decidió por el software libre

Por Pepe Flores el 11 de Agosto de 2010, 17:03

“El gobierno debe gastarse el dinero de los ciudadanos en hospitales o escuelas, no en licencias de software”, dijo Beto Bolaños, director general del Sistema Internet de Presidencia (SIP) durante el sexenio del presidente Vicente Fox (2000 – 2006). Tuve la oportunidad de acercarme a su charla en la Campus Party México 2010, y quedé simplemente sorprendido sobre la historia de cómo el gobierno de este país se decidió por la adopción del software libre.

Todo comenzó como una medida de austeridad involuntaria. El gobierno de Fox, recién llegado a la oficina, solicitó a Starmedia la creación de unos foros para comunicación interna. La empresa respondió que los tendría listos por la módica cuota de dos millones de pesos. Debido a lo elevado del gasto, la administración decidió buscar otras empresas, y después de consultar con casi medio centenar de compañías, los costos seguían demasiado altos. “¿Por qué no lo haces tú mismo?”, le sugieron a Beto. Así comenzó la incursión en el software libre.

Es probable que la adopción del software libre haya sido uno de los logros más infravalorados de la pasada administración federal. El SIP desarrolló a partir de plataformas abiertas más de 60 sitios, estrategias de comunicación y colaboración web, sistemas de ejecución, seguimiento, control, monitoreo y seguridad. Gracias a su esfuerzo, se impulsaron iniciativas como salas de prensa virtuales, foros públicos (eDemocracia), sistemas de registro, transmisiones vía streaming y podcasts. El resultado fue impresionante: los sitios dependientes de Presidencia pasaron de 56.500 usuarios únicos al mes en 2000, a 2.253.871 en 2006.

Otro de sus grandes éxitos fue la temprana apuesta por las licencias Creative Commons. En los albores del proyecto, León Felipe Sánchez se les acercó para pedirles que registraran la paquetería de Presidencia bajo el rubro CC. Uno de los objetivos es que no hubiera trabas entre los diferentes niveles de gobierno (federal, estatal, municipal), de modo que todos pudieran adoptar el mismo sotware abierto. En una cumbre internacional, México fue reconocido como pionero en el campo, e incluso Estados Unidos solicitó un par de asesoría sobre plataformas abiertas. Todo este esfuerzo se coronó con el Premio Reto Estocolmo en 2004 en la modalidad de Gobierno Electrónico.

Sin embargo, con la llegada de Felipe Calderón, hubo una ruptura total en los proyectos. Se despidió al 100% de los integrantes del equipo de Sistemas, lo que causó que el gobierno entrante no pudiera levantar el sitio web de Presidencia el día del inicio de gestión (incluso acusando a Bolaños de boicot). La culpa, en buena parte, es del negocio detrás de las licencias — ¡tan sólo en licencias de Microsoft Office se calculan cerca de ocho millones de dólares!

Aún quedan varios esfuerzos aislados en el gobierno actual de México como el caso de la Comisión Federal de Electricidad, pero el auge que tuvo durante la administración foxista no se ha recuperado. Los beneficios de la adopción del software libre son amplios, desde la generación de empleos para nuevas generaciones de programadores mexicanos, hasta un ahorro impresionante en recursos. Ojalá sean cada vez más los gobiernos que adopten las plataformas abiertos, ya que han demostrado que no sólo están para competirle a cualquier monopolio, sino para ganarles.

Artículo original en Alt1040

viernes, 6 de agosto de 2010

La "otra" tabla periódica...


















Clickeá sobre la imagen para verla más grande

Original en el blog de Crispian Jago

Momento histórico: tribunal de EE.UU falla a favor del Software Libre

Por Elías Notario el 6 de Agosto de 2010, 14:29 en Legal, Software.

Como seguramente la mayoría de los lectores de esta casa sabrán en los Estados Unidos el software libre no está muy bien visto por parte de las autoridades, debido a lo cual le han puesto toda clase de trabas. Pues bien, recientemente acaba de suceder algo muy importante en relación al tema del software libre en el mentado país por salirse completamente de lo habitual: una corte de Estados Unidos ha fallado a favor de un programa open source en un litigio con la empresa Westinghouse Digital Electronics.

El litigio fue iniciado por la Software Freedom Conservancy, organización que entre otras cosas se dedica a defender varios proyectos open source como por ejemplo Amarok, Inkscape o jQuery, contra la empresa comentada en el párrafo anterior ya que esta copió, modificó, y distribuyó un software libre conocido como BusyBox en el firmware de sus productos para televisores pasándose la licencia GPL bajo la que está por el arco del triunfo. Es decir, que Westinghouse Digital Electronics utilizó un programa libre para crear algo cerrado, lo que la licencia GPL del mismo no permitía.

Lo interesante del caso como apuntaba arriba no es que una empresa se haya saltado la licencia GPL de un programa open source en EE.UU (esto pasa constantemente), sino que por primera vez en la historia un tribunal estadounidense ha fallado a favor del software libre. Concretamente el juez ha condenado a Westinghouse a dejar de vender los productos de la empresa que integran BusyBox y a pagar 150 mil dólares por daños. Finalmente lo más importante es que la sentencia sienta precedentes y la Software Freedom Conservancy tendrá muchas más opciones de ganar los otros 13 juicios que tienen abiertos a diversas empresas por saltarse la licencia GPL de programas software libre.

Artículo original en Alt1040

martes, 3 de agosto de 2010

Siete «ciberguardianes» tienen en sus manos las llaves de internet

13:33h | Lektu / Microsiervos

En caso de ciberataque, al menos cinco de ellos serían necesarios para «reiniciar el sistema».

La idea de un ciberataque masivo contra las infraestructuras de internet es algo más que una quimera; sea a manos de grupos terroristas, organizaciones mafiosas o simples hackers aburridos, la posibilidad de que alguien consiga interrumpir el funcionamiento de la Red, al menos por un tiempo, preocupa a las agencias gubernamentales de seguridad de todo el mundo.

El mes pasado corrieron rumores de que se había instituido un «botón del pánico» que permitiría desconectar internet, a modo de protección, en caso de ciberataque. Como de costumbre, los rumores son exagerados.

Lo que sí es cierto es que se ha instituido un grupo de siete personas procedentes de todas partes del mundo (Burkina Faso, Canadá, China, Estados Unidos, Reino Unido, República Checha y Trinidad y Tobago), a cuyo cargo se han puesto las «llaves» de internet.

Pese a que la entrega de esas llaves se llevó a cabo en un búnker estadounidense, no se trata de una iniciativa militar, sino de la ICANN, la Corporación de Internet para la Asignación de Nombres y Números, organismo que se encarga entre otras cosas de la gestión del sistema de dominios.

Las llaves son en realidad tarjetas inteligentes que contienen partes de la clave maestra del sistema DNSSEC (Domain Name System Security), un protocolo de seguridad que controla el registro e identificación de las páginas web, y que garantiza que, cuando tecleamos una URL para acceder a una de ellas, lleguemos a la página real y no a una copia idéntica maliciosa.

En caso de ataque, los servidores integrados en DNSSEC podrían cortar las conexiones entre sí para contenerlo y limitar su expansión. Una vez solventado el problema, al menos cinco de los siete ciberguardianes ahora designados deberían reunise en una base estadounidense, provistos de sus respectivas llaves, para reiniciar el sistema y restablecer la conectividad.

Esperemos que no haga falta.

Artículo original en Lainformacion.com

Kingston HyperX H2O ya son oficiales, refrigeración líquida para tu RAM

Hace unos meses asistimos a una presentación de Kingston donde allí estaban. Por entonces desconocíamos su nombre final, pero ahora ya están en el mercado. Las nuevas Kingston HyperX H2O ya se empiezan a vender, y ofrecen lo que prometieron.

Su característica principal es la llegada de la refrigeración líquida a la RAM desde el propio fabricante. Las soluciones que existían hasta ahora consistían en añadir accesorios de terceros, teniendo nosotros mismos que montarlo. Ahora, Kingston se encarga de comprarlo ya completo y listo para instalar en nuestro sistema, sin mayor complicación.

Kingston H2O nace con varios kits de dos y tres módulos, todos DDR3 y con frecuencias de 2.000 o 2.133 MHz., dependiendo de lo escogido. En todos los casos será necesario, como es lógico, disponer del resto de componentes necesarios para la refrigeración líquida: bloques, radiadores, tubos, etc.

Aún restan unas cuantas semanas para que se lancen en España, pero sus precios en Estados Unidos se sitúan en 157, 205 y 235 dólares, dependiendo de los modelos escogidos. ¿Caros? Posiblemente, pero es lo que tiene añadir una innovación en un campo como la refrigeración líquida, ya bastante cara de por si.

Artículo original en Xataka