sábado, 20 de junio de 2009

¿Hay alguien ahí?

Día del padre

4 años: Mi papá puede hacer de todo.

5 años: Mi papá sabe un montón

6 años: Mi papá es más inteligente que el tuyo.

8 años: Mi papá no sabe exactamente todo.

10 años: En la época en que mi papá creció, las cosas seguramente eran distintas

12 años: Oh, bueno, claro, mi padre no sabe nada de eso. Es demasiado viejo para recordar su infancia.

14 años: No le hagas caso a mi viejo. ¡Es tan anticuado!

21 años: ¿El? Por favor, está fuera de onda, sin recuperación posible.

25 años: Papá sabe un poco de eso, pero no puede ser de otra manera, puesto que ya tiene sus años.

30 años: No voy a hacer nada hasta no hablar con papá.

40 años: Me pregunto cómo habría manejado esto papá. Era inteligente y tenía un mundo de experiencia.

50 años: Daría cualquier cosa por que papá estuviera aquí para poder hablar esto con él. Lástima que no valoré lo inteligente que era. Podría haber aprendido mucho de él.

Felicidades Papá... te extraño mucho.

Tecnología obsoleta...

Control Parental

Hola nena, acá estoy ¿viste? te encontré y eso que me decías, "no, vieja no, esto de las internetes no es para vos" Juajuajua. Pero llegué. No te voy a decir que fue fácil pero llegué. Estoy usando tu computadora. No te enojes. Pero lo hice con cuidado. Lo llamé a tu tio Pepe y él me explicó, ahora le debo un almuerzo. Este domingo viene a comer ravioles, UFA! Jajajaja. Menos mal que nadie lee esto que sino ... :)

UYYYYYY puse una carita !!!!!!!!! QUE BIEN PUCHA PERO ME SALE TODO EN MAYUSSSSSSSSSSSSCULAS PERDON yA Me di CUENTA ahora si, jajajajaa, había apretado una tecla ahi bueno, ya sabés.

Como te decía, llegué, encontré el Facebook y me metí. Puse mi nombre, apellido, teléfono, dirección, me pidieron muchas cosas, qué barbaridad, se ve que es gente seria y no aceptan a cualquiera, ¡hasta el grupo sanguíneo me preguntaron! jajajaja Lo que no pude poner es un coso de esos con la cara ¿No tenés ninguna foto mia en tu computadora? Bah ahora no me voy a poner a buscarla. Lo dejo en blanco y listo porque total, ya tienen mis otros datos así que si quieren la sacan del DNI y chau pinela.

¡Cuánta gente hay acá dentro! ¿Los conocés a todos? Yo siempre dije que eras una chica muy sociable pero ¡qué nombre raros! Pobre, mirá que llamarse Caritos Bocasucia ¡Pobre muchacho! Lo que debe sufrir en el colegio porque los chicos son crueles, a mi me llamaban La Pirucha, ¡imaginate! Y nunca supe por qué :(

Ehhh soy cool, puse otra carita ¡Qué divertido! ¡Con razón te pasas horas encerrada con esto!

:D :P :| >:(

Ya está, ya está, no me grites jajajaja te imagino diciendo "mamá, no hagas papelones" pero, ¿qué le vas a hacer? soy así, juguetona. Listo. Sólo estaba probando.

¿Te puedo preguntar algo? ¿Qué es eso del toque? ¿Es algo medio sexual? No entendí nada y por las dudas lo saqué. No me gustan esas cosas, no es que sea mojigata pero soy una mujer casada ¿viste? y si tu padre se entera me muele a palos jajajajaja no, pobrecito, si es un santo el pobre, lo digo en broma. Parece que acá, te ponés a escribir y te sale todo, es como un psicologo barato jajajajaja.

¿Y si te mando un regalo? A ver ... besos .... no, ya se que no te gustan. Mira que sós antipática a veces, así nunca vas a tener novio, nena. En fin, mejor una remera, eso, te regalo una remera ... esperá que hago click ...

Pero ...

¡Esto no anda!

No me preguntó tu talla (¿ya la saben?) tampoco me dejó elegir un color ¿cómo funciona la cosa esta? ¿sólo hay un modelo? bueno, no importa, total es gratis así que si no te gusta se la regalás a tu prima la Casandra que siempre anda con esa ropa tan fea.

¿Así que en el cuestionario sobre quién fuiste en tu vida pasada te salió Madonna? Pero ¿se murió la chica esa? Pobre, que joven, claro, la mala vida. Voy a hacer ese test, seguro que me sale Cleopatra jajajajaja; siempre me sale lo mismo. Algo de cierto debe haber. Creer o reventar m'hijita.

Ayyyyyyy ya son las siete, acá el tiempo pasa volando, ni me di cuenta y todavía no empecé con la cena, voy a hacer zapaliitos rellenos. Sí, ya se que no te gustan pero a vos te hago algo aparte. Es que los zapallitos estaban en oferta y hay que aprovechar, cinco kilos compre, tenemos zapallitos para una semana jajajajajajaja. Pero esperá, antes me fijo en las fotos que pusisiste.

¡Que bonita! Esa faldita siempre te quedó bien aunque tu padre crea que es demasiado corta ¡Qué sabrá él! Ohhhh y esta otra que linda esa trompita, chuick chuick chuick ¿A quién le tirás besos, nena? Jajajaja Es una broma, no te enojes. Mirá, acá hay más fotos ¡cuántas! ¡Qué bien! Se nota que tenés alma de artista. Ayyy que poses ... supongo que esto lo puedo ver yo pero no cualquiera, digo porque son un poco ... no sé.

Bah, está bien, es la modernidad. No viene a aguarte al fiesta pero nena, abrigate un poco, no te me vayas a resfriar ...

Artículo original en Vagabundia

Una PC algo anticuada...

¿Todos contra todos?

En tiempo de epidemias...

Problemas de seguridad en la nube

Un grupo de expertos expone los puntos débiles de esta forma de conectividad

Hace mucho que oímos hablar de la computación en la nube (cloud computing), y sin darse cuenta muchos ya la usan diariamente. En las redes P2P o en muchos servicios gratuitos de Google se utiliza esta tecnología. Un grupo de expertos del NIST (National Institute of Standards and Technology) ha hecho un estudio sobre los principales problemas de seguridad que aún hay que superar para poder aplicar esta tecnología a un nivel mucho más amplio. Pero hay muchas opiniones de primer nivel que ven problemas mucho más serios, asociados a la privacidad y a la libertad del usuario. Por Rubén Caro.

La computación en la nube (cloud computing) es un estilo de computación que consiste en virtualizar todo o parte del sistema en internet (en la nube). El usuario accede a través de una conexión a internet a todos los datos y a todo el software que necesita. De esta manera el usuario no tiene que preocuparse de mantener un complejo sistema, tan sólo necesita conexión de banda ancha para poder trabajar. Además puede hacerlo desde cualquier lugar. El sistema en la nube se encarga de mantener el software, guardar los datos y ponderar las cargas de trabajo para sacar el máximo rendimiento.

Ya existen varios usos de esta tecnología al alcance de todos, como son las redes P2P, el proyecto SETI@Home, algunos servicios web curiosos, e incluso algunos sistemas operativos como Jolicloud. Sistemas que se gestionan en la nube, y el usuario final tan sólo se conecta y utiliza la potencia de los servidores sin necesidad de tener los servidores consigo. A veces es necesario un pequeño programa cliente, hecho a medida. Pero muchas veces tan sólo es necesario un navegador web.

La estructura del sistema permite el acceso a un gran poder de computación sin necesidad de mantenimiento por parte del usuario. Esto hace que sea una plataforma ideal para el desarrollo de proyectos científicos que que necesitan computadores de gran potencia y que de otra manera no tendrían acceso. Sobre este modelo de funcionamiento también se soportan sistemas de gestión internos de empresas, como Opentaps, y también se soporta todo un modelo de negocio dirigido a ellas. Proveedores de servicios en la nube son Sun, IBM, Amazon y Google entre otros. Y entre sus clientes hay grandes empresas como General Electric.

Cuanto más crítica es la aplicación, más importante es la fiabilidad del sistema y la seguridad de los datos. En este sentido, científicos expertos en seguridad informática del NIST (National Institute of Standards and Technology) han hecho un estudio que revela las ventajas e inconvenientes que tendrá que superar esta tecnología antes de poder aplicarse de modo fiable en ámbitos donde la seguridad es más importante.

Resultados del estudio

El estudio resalta dos ventajas principales: que la copia de seguridad se automatiza más fácilmente, y el hecho de que los datos permanecen de forma redundante en la nube, habiendo copias en lugares seguros, de manera que la pérdida de datos es muy poco probable.

Como inconvenientes se resaltan algunos más. El primero y más evidente es la falta de control sobre los datos, puesto que están alojados en lugares ajenos. Igualmente importante es la confidencialidad de la transmisión de esos datos a través de conexiones de internet, con lo que se hacen necesarios nuevos sistemas de encriptación más seguros y eficientes, como la encriptación cuántica. De igual modo se resalta la falta de control físico sobre el sistema, ya que el usuario depende de un sistema que no controla.

Aparte de problemas legales, resueltos con la creación de nuevas licencias, como la AfferoGPL, también hay problemas a la hora de someterse a auditorías propias o por parte de las autoridades, porque los recursos en la nube se comparten para poder maximizar la eficiencia del sistema. Eso hace que si el sistema necesita detenerse para ser examinado, o simplemente es aprehendido por las autoridades, todos los usuarios que compartían ese sistema se vean afectados y no sólo el usuario investigado.

Claramente en contra de la generalización de su uso

Algunos de estos inconvenientes han provocado una cierta controversia, dando lugar a publicación de opiniones de eminentes interlocutores cuestionando la conveniencia de la generalización de esta tecnología. The Times publicó un artículo en el que se analiza en profundidad las implicaciones de tener nuestros datos en servidores en la nube, sugiriendo que es un retraso en el ámbito de las libertades. The Guardian también hizo público su análisis de este problema, centrándose más en el modelo de Google, y avisando de que los que guardan los datos pueden manipular a los usuarios. De modo similar Richard Stallman, gurú del software libre, avisa de que la generalización de la computación en la nube permitiría que las empresas que gestionan los datos fueran sus virtuales poseedores, y podrían coaccionar indirectamente a los usuarios.

Lunes 15 Junio 2009
Rubén Caro

Artículo original en Tendencias 21

Desarrollan una cámara con una lámina de fibra

Su flexibilidad y ligereza permitirían integrarla en la ropa

Científicos del Laboratorio de Investigación Electrónica del MIT han desarrollado una cámara con fibras de polímero, en la que han integrado una serie de ocho sensores. El resultado podría dar lugar a cámaras robustas aunque ligeras e incluso plegables. Este dispositivo se enmarca en una tendencia cada vez mayor a experimentar con textiles y fibras a los que se añaden moléculas biológicas, que permiten transformarlos en objetos tecnológicos. Este mismo equipo de investigación, por ejemplo, había desarrollado antes que la cámara espejos con forma de fibras flexibles para incorporar en tejidos o en papel con diversas aplicaciones o un sofisticado sistema óptico hecho fibras sensibles a la luz. Por Yaiza Martínez.


En los últimos tiempos, se está experimentando con textiles y fibras a los que se les añaden moléculas biológicas para transformarlos en objetos tecnológicos. Así, por ejemplo, se ha conseguido convertir seda en sensores o algodón en tela electrónica, tras introducirlo en una solución de nanotubos.

Según se explica en la revista Technology Review la idea es utilizar estos textiles electrónicos, flexibles y cómodos de llevar, para la detección de cosas como la sangre en un soldado o los patógenos que circulan en el aire.

El último ejemplo de estos trabajos nos llega del Laboratorio de Investigación Electrónica, del Instituto Tecnológico de Massachussets (MIT), en el que un grupo de investigadores ha integrado una serie de sensores de luz en unas fibras de polímero, creando así una cámara.

Cámara flexible

Yoel Fink, profesor de ciencias de los materiales e ingeniería, además de investigador principal del proyecto, señala que las cámaras estándar necesitan un tipo de lentes que a menudo son rígidas y pesadas.

Por el contrario, una cámara hecha con estas fibras sería robusta, ligera e incluso plegable, y podría utilizarse en telescopios plegables de gran tamaño o integrarse en los uniformes de los soldados.

Anteriormente, el equipo de Fink había demostrado ya que era posible integrar materiales semiconductores en las fibras y crear sensores de temperatura o luz que puedan ser tejidos para crear distintas formas y tamaños. Ahora, los investigadores han logrado integrar, concretamente, ocho sensores dentro de una fibra de polímero, más de lo que hasta el momento se había conseguido.

Cómo se hizo

Para poder crear la cámara, los investigadores integraron los ocho sensores de luz semiconductores en un cilindro de polímero con un diámetro de 25 milímetros, controlando el espaciado y el ángulo del sensor dentro de la fibra.

Una vez que los sensores, hechos de un tipo de vidrio semiconductor, estuvieron colocados en su posición, el cilindro de polímero fue calentado y después estrechado para que el diámetro encogiese hasta alcanzar un diámetro de cientos de micrómetros (un proceso idéntico al que se fabrica la fibra comercial que se utiliza en las aplicaciones de telecomunicaciones) sin por ello perder la orientación de los sensores.

Fabien Sorin, investigador de post doctorado que desarrolló la cámara de fibras, señala que construyó una red de 36 por 36 fibras y conectó los sensores semiconductores de la fibra a unos electrodos. Cuando la luz choca con los semiconductores, esto hace que se desplacen los electrones dentro del material, creando así una corriente eléctrica. La intensidad de esta corriente proveniente de las fibras se envía a un algoritmo, ejecutado en un ordenador adjunto, que crea la imagen del objeto que se coloque cerca de la lámina de fibra.

Los ocho sensores están agrupados en pares, consistentes en un sensor interno y uno externo, afirma Sorin en TechnologyReview; “Si conocemos el grosor de la primera capa, y conocemos el tipo de material, es posible reconstruir la energía del fotón puesto que esta energía está directamente relacionada con la profundidad con la que el fotón penetra en el material.”

En otras palabras, los sensores internos ofrecen un tipo de información que permite a los investigadores saber de qué energía estamos hablando, y que se corresponde con la longitud de onda, el color o la luz.

La capa externa de sensores se usa para determinar el ángulo con el que la luz está penetrando en la fibra, lo que se podría usar para crear imágenes tridimensionales, señala Sorin. Los sensores se distribuyen uniformemente alrededor del centro de la fibra. Si algunos sensores recogen una gran cantidad de fotones, al contrario que los sensores adyacentes, los investigadores pueden determinar el ángulo en el que se están originando los fotones.

Posibles aplicaciones

Este estudio es una demostración muy ingeniosa de cómo las fibras con múltiples materiales se pueden utilizar para varias aplicaciones, afirma Juan Hinostroza, profesor de ciencias de la fibra y diseño de ropa en la Universidad Cornell. “Creo que esta es sólo la primera de las numerosas aplicaciones posibles que nos ofrece esta tecnología,” afirma.

Hinestroza cree que este tipo de fibras se podrían tejer o hilar en las telas para detectar la temperatura, la ocupación y el tráfico en una sala o terminal, o para detectar la presencia de trazos de determinados gases peligrosos.

John Rogers, profesor de ciencias de los materiales e ingeniería en la Universidad de Illinois Urbana-Champaign, afirma que el estudio está relacionado con un “cada vez mayor número de informes que exploran métodos nuevos e inusuales, y a veces inspirados por la biología, para crear imágenes,” entre los que se incluyen una cámara esférica, con forma de ojo, que fue desarrollada con anterioridad por su grupo.

Sorin afirma que el siguiente paso para el equipo del MIT es construir incluso más capas de sensores dentro de la fibra, que se puedan usar para re-crear imágenes con múltiples colores. Es posible añadir más capas, aunque podría resultar un auténtico reto.

“Si se colocan más capas dentro de la fibra, se hace más difícil mantener la uniformidad interna,” afirma Sorin. Será necesario llevar a cabo una serie de pruebas para determinar los parámetros más apropiados, tales como la velocidad con que las fibras puedan ser alineadas, así como la longitud máxima que pueda mantener la orientación original de los sensores.

Espejos y sistema óptico

Este no es el primer trabajo de Fink y su equipo con fibras. En 2002, por ejemplo, el MIT publicaba un artículo en el que se hablaba de la creación de espejos de alto rendimiento con la forma de fibras pilosas y flexibles que podían ser incorporadas en tejidos o en papel.

Sus aplicaciones iban desde su uso para introducir “códigos” en la ropa que identificaran a la persona que la llevara, a la posibilidad de tejer con ellas trajes ligeros capaces de reflejar energía y, por tanto, protectores contra las explosiones de calor.

En 2006, otro artículo también publicado por el MIT informaba del desarrollo de un sofisticado sistema óptico hecho de redes similares a las telas de araña, tejidas con fibras que detectaban de luz.

Los científicos afirmaron que estas fibras, que podían medir la dirección y la intensidad de la luz sin lentes, filtros ni detectores, podrían mejorar los telescopios espaciales.

Sábado 20 Junio 2009
Yaiza Martínez

Artículo original en Tendencias 21

Las GPUs rendirán 20 TeraFLOPS en 2015

por : Juan Ranchal: 20 Jun 2009, 11:00

Es la previsión del responsable científico de NVIDIA que espera multiplicar por veinte el rendimiento de los más potentes procesadores gráficos actuales y aumentar el uso de las GPUs para propósito general logrando una mayor eficacia en paralelismo mediante técnicas MIMD.

William Dally, el jefe científico de NVIDIA espera que los chips gráficos del 2015 consigan un rendimiento veinte veces superior a las actuales ATI Radeon HD 4890 o la NVIDIA GeForce GTX 285, alcanzando los 20 TeraFLOPS

Además, la compañía de Santa Clara insiste en su estrategia de explotar las ventajas de las GPUs frente a las CPUs de propósito general utilizando el paralelismo que ofrecen sus múltiples núcleos mediante tecnología CuDA.

Un aumento de eficacia en paralelismo -método de computación de alto rendimiento para realizar varios cálculos simultáneamente- utilizando técnicas MIMD para ejecutar múltiples instrucciones con los procesadores funcionando de forma independiente y asíncrona. Una técnica que no es soportada actualmente por las GPUs pero que se espera llegue con la arquitectura Intel Larrabee y con el chip GT300 de NVIDIA.

Artículo original en The Enquirer

Debilidad del SHA-1

Por Fernando Acero - Publicado el 17 Junio 2009

Hace unos años investigadores chinos habían logrado reducir la complejidad del algoritmo SHA-1 a 2^69, es decir, habían logrado reducir su complejidad en 2^11 en relación con el ataque de cumpleaños de 2^80, dicho de otro modo, Shandong, Wang, Yin y Yu, durante la "Cripto Conference" de 2004, demostraron que habían debilitado el SHA-1 en un factor de 2048, lo que no es poco.

Ahora, según he podido leer en un boletín de Hispasec, unos investigadores australianos han logrado reducir su complejidad a 2^52, lo que es un logro impresionante, puesto que por cada unidad en la que se reduce el exponente, se reduce la fortaleza del algoritmo en un 50%. Dicho de otro modo, a fecha de hoy podemos decir que el algoritmo SHA-1 se ha debilitado en más de un 99% en relación con su fortaleza inicial derivada del ataque de cumpleaños, lo que es muy significativo, aunque nos parezca que 2^52 es una cifra suficientemente grande...

Si ya en el 2004/2005 se aconsejaba abandonar el SHA-1, con este nuevo avance logrado por los australianos, su sustitución por otros algoritmos más resistentes se hace indispensable. Una posible solución, hasta que se publique el SHA-3, es decir, el algoritmo que está llamado a sustituirlo, sería usar dos algoritmos consecutivos, por ejemplo SHA-1 Y RIPEMD-160, puesto que una colisión en SHA-1 es virtualmente imposible que coincida también en RIPEMD-160. Esta solución de la firma múltiple tiene como ventajas que usa algoritmos disponibles en sistemas criptográficos de todo tipo y no implica un excesiva computación.

Hay que señalar, que los documentos que hayamos firmado usando SHA-1 y que deban tener vigor en el tiempo, puede que no sean seguros dentro de unos meses. Como norma general, deberíamos usar algoritmos criptográficos que estimemos que vayan a ser seguros en un tiempo equivalente a la esperanza de vida de la persona que los utiliza y un 50% más.

Una caída del estándar SHA-1 también afectaría a la seguridad de los certificados digitales, puesto que sería factible generar certificados con el mismo fingerprint que otros, lo que permitiría suplantar la personalidad de personas, o de páginas web.

Hay que señalar, que el e-DNI se han establecido mecanismos que permiten construir el "PAHT" de Certificación (Cadena de Confianza) utilizando SHA-1 o SHA-256, para dar soporte a aquellos sistemas operativos que no contemplan el uso de SHA-256 como algoritmo de "hash" o resumen. Desgraciadamente, este mecanismo que depende del sistema operativo que estamos usando, es transparente al usuario la mayoría de las veces, siendo complicado saber la forma en la que se establece el "path" de confianza, sin embargo el e-DNI siempre usa el inseguro SHA-1 para firmar los documentos, según aparece en la página web oficial del mismo.

También hay que tener en cuenta, que las claves de los e-DNI de los usuarios están firmadas usando SHA-1, lo que puede ser un problema de seguridad a medio y largo plazo y con independencia de la validez en el futuro de los documentos que firmemos, o que hayamos firmado anteriormente, usando el omnipresente algoritmo SHA-1. Sin embargo, las claves raíz y subordinadas del e-DNI, con una vida de 30 y 15 años respectivamente, están firmadas usando SHA-1 y SHA-256, por lo que las podemos considerar seguras en este momento.

Ni que decir que ya he configurado mi GPG para que use la función SHA-256 en la firma de documentos y correos electrónicos, aunque también es cierto que en los correos uso siempre firma doble, GPG y de la FNMT, para que no haya problemas.

"Copyleft 2009 Fernando Acero Martín. Verbatim copying, translation and distribution of this entire article is permitted in any digital medium, provided this notice is preserved"

Artículo original en Kriptópolis

sábado, 13 de junio de 2009

Emo Einstein

¿El nuevo Fusca multifuel?

...y entonces... ¡HEY!

Nueva tecla, de muuucha utilidad en "Guindous"

Desarrollan una pantalla que emite y registra imágenes al mismo tiempo

La informática, la aeronáutica, la medicina, la mecánica o el automovilismo se beneficiarán de esta tecnología

Ingenieros alemanes han desarrollado una pantalla capaz de representar una imagen en movimiento y, al mismo tiempo, detectar el movimiento que se produce delante de la pantalla. Es una pantalla-cámara de gran funcionalidad y ligereza, que podría ser de suma utilidad en campos tan disímiles como la informática, la aeronáutica, la medicina, la mecánica o el automovilismo, entre otros. Aunque existían desarrollos similares a la fecha, éste logra una mayor precisión y dinamismo, al combinar fotodetectores con OLED´s. Por Pablo Javier Piacente.

Un grupo de ingenieros e investigadores del Fraunhofer Institute for Photonic Microsystems (IPMS) de Alemania, conducido por Michael Scholles, director de la unidad de negocio del IPMS, ha avanzado en el desarrollo de pantallas que serán capaces de registrar los movimientos que suceden por delante de ellas, sin que esto interrumpa la emisión de imágenes.

El chip que posibilitará este importante desarrollo en el mundo de los sistemas audiovisuales (una pantalla-cámara) combina fotodetectores con unos diodos orgánicos emisores de luz (OLED´s). Su aplicación es inmensa, por ejemplo en el campo de la conducción de vehículos a velocidad elevada, aeronavegación, en trabajos mecánicos de precisión o en el marco de cirugías médicas de alta complejidad.

Aunque este tipo de desarrollos audiovisuales viene trabajándose durante décadas, la pantalla-cámara del Fraunhofer Institute for Photonic Microsystems cuenta con una importante ventaja: su carácter compacto y funcional. Esto permite que el dispositivo sea fácil de trasladar y que resulte sencillo interactuar con él, una característica que potencia su utilidad. Así queda establecido en un artículo de la revista Technology Review, de reciente publicación.

El sistema que permite esta novedad combina células fotodetectoras, que son muy parecidas a las que se emplean para capturar la luz en una cámara convencional, y píxeles de pantalla. De esta manera, el mecanismo puede representar y reproducir imágenes en movimiento y, a la vez, detectar los movimientos que se concretan delante de la pantalla.

¿Control ocular informático?

Esta innovación también podría hacer realidad la idea del control ocular en los sistemas informáticos, ya que si la pantalla es capaz de seguir los movimientos del ojo humano, la persona podría movilizarse por los menús y controles empleando solamente la vista y concretando así las órdenes que sean necesarias.

De acuerdo a los primeros indicios de los especialistas a cargo del proyecto, este tipo de pantalla-cámara podría integrarse en un sistema de realidad aumentada. Sería factible reproducir una imagen y, al mismo tiempo, controlar y monitorear el ojo del usuario del dispositivo.

Yendo a un ejemplo concreto, el piloto de un avión podría accionar diversos mecanismos con la vista, teniendo una mayor libertad para emplear sus manos en los comandos más complejos o de acción permanente. Aunque este tipo de mecanismos ya han sido desarrollados, no se había logrado hasta el momento un funcionamiento que garantizara tanta practicidad y comodidad.

Especialistas de otros centros de investigación han recalcado la importancia de este avance. Por ejemplo, el profesor de ingeniería eléctrica en la Universidad de California del Sur, Alexander Sawchuck, cree que la importancia de este desarrollo se sustenta en la integración de una pantalla y una cámara en un mismo chip. Según afirmó a Technology Review, todo aquello que pueda hacerse para que este tipo de pantallas sean más funcionales y que consuman menos energía es un gran avance en la materia.

Detalles del sistema y características del prototipo

La innovación se inició con el diseño de unos chips detectores de luz, que contienen patrones de fotodetectores. Posteriormente, se creó una oblea con varios chips en una cámara de deposición, colocándose diferentes capas de material orgánico en el espacio ocioso entre los fotodetectores.

Justamente, estas capas fueron ocupadas por los OLED´s, diodos orgánicos emisores de luz, que constituyen el elemento central de la pantalla. Por último, y con el propósito de proteger la estructura final, el conjunto de fotodetectores y los OLED´s se integran en una delgada capa de polímero. La integración de OLED´s con chips fotodetectores es quizás la innovación más sugerente e intrigante.

Actualmente existe un prototipo de la pantalla, un modelo simple y monocromático de 1,25 centímetros en cada lado y una resolución de 320 por 240 píxeles. Sin embargo, las pantallas a color pueden realizarse con esta tecnología, aunque resulta más complejo debido a la necesidad de añadir filtros de color a los OLED´s blancos. Asimismo, esta clase de diodos orgánicos tienen una menor fiabilidad y su fabricación de manera eficiente es más compleja.

En tanto, la cámara que integra la pantalla en el prototipo actual alcanza una resolución de tan sólo 12 píxeles, lo que impide el seguimiento del ojo humano. Pero ya se ha desarrollado una versión de la cámara de 160 por 120 píxeles de resolución, con pruebas satisfactorias en el laboratorio pero que aún no ha sido integrada a la pantalla para comprobar su funcionamiento en conjunto. Sobre principios de 2011, los especialistas creen tener concluida una versión de esta pantalla-cámara más avanzada, que incluiría una cámara de alta resolución capaz de seguir los movimientos del ojo humano.

Jueves 11 Junio 2009
Pablo Javier Piacente

Artículo original en Tendencias 21

Diseñan el primer motor cuántico, formado sólo por dos átomos

Podría transformar energía eléctrica en movimiento, según sus creadores

Un grupo de físicos de la Universidad de Augsburgo, en Alemania, ha diseñado un motor que está formado por sólo dos átomos ultra-fríos que se moverían atrapados dentro de un anillo de luz láser. Aunque todavía este motor existe únicamente como idea, los científicos aseguran que hoy día ya se podría fabricar. Por otro lado, su funcionamiento ha sido demostrado mediante complejos cálculos. Físicos y otros científicos señalan el interés de la idea, aunque aún quedan grandes cuestiones por resolver, entre ellas, las de su aplicación práctica. Por Yaiza Martínez.

El primer motor eléctrico de la historia fue creado hace cerca de dos siglos y, en las últimas décadas, científicos e ingenieros han trabajado para construir motores cada vez más pequeños.

Ahora, un equipo de físicos teóricos ha ideado una versión del clásico motor eléctrico giratorio… fabricada con tan sólo dos átomos.

Según se explica en la revista Science, este motor consistiría en un anillo de luz portador de dos átomos ultra-fríos. Sus creadores aseguran que la máquina cuántica podría fabricarse ya en la actualidad, incluso a pesar de que ni siquiera ellos pueden explicar del todo su funcionamiento.

Átomos atrapados en luz

A escala macroscópica, un motor eléctrico rotatorio es una máquina que transforma energía eléctrica en energía mecánica por medio de interacciones electromagnéticas. Estas máquinas se componen principalmente de dos partes: un estator o parte fija, que da soporte mecánico, y un rotor.

Los físicos Alexey Ponomarev, Peter Hänggi y Stanislav Denisov, de la Universidad de Augsburgo, en Alemania, han ideado el equivalente atómico o de mecánica cuántica de un motor de este tipo.

Su máquina consistiría en una serie de puntos de luz láser que formarían un círculo. Estos puntos de luz láser atraparían en su interior dos átomos ultra-fríos.

Según explica la revista Futura-Sciences, atrapar átomos ultra-fríos usando fotones (las partículas elementales de la luz) es una técnica bien conocida, por ejemplo, para fabricar relojes atómicos, cuyo funcionamiento se basa en la frecuencia de una vibración atómica.

Sin embargo, hasta ahora nadie había imaginado que este sistema pudiera ser utilizado también para generar un trabajo mecánico.

Portador e iniciador

Los átomos ultra-fríos atrapados por la luz serían dos átomos distintos. El primero de ellos, al que los físicos han bautizado como “portador” perdería un electrón y, por tanto, quedaría cargado eléctricamente. Es decir, sería “portador” de una corriente.

El segundo átomo, que sería neutro, por tanto, carecería de carga eléctrica serviría como “iniciador” o “arrancador” cuántico, explican los físicos en un artículo aparecido en Physical Review Letters.

En un motor eléctrico convencional, es la corriente eléctrica la que genera el movimiento de éste. En el caso del motor atómico, los científicos planean aplicar al sistema compuesto por estos átomos y la luz láser un campo eléctrico perpendicular al plano del anillo luminoso para poner el motor “en marcha”.

Dicho campo eléctrico provocaría inicialmente el movimiento del átomo “portador” pero, como nos encontramos en el nivel cuántico de la materia, éste no se movería siguiendo la trayectoria circular que pudiera seguir, por ejemplo, una bola.

Al ser una partícula cuántica, el movimiento del átomo “portador” debería ser considerado como una onda, es decir, que su posición vendría descrita sólo por la probabilidad.

Empujón atómico

Pero para que el átomo “portador” llegue a moverse se necesita no sólo este campo eléctrico, sino también el átomo “iniciador”.

Según explican los físicos, al aplicar el campo magnético al sistema, incidirían sobre éste ondas de igual fuerza que girarían alrededor del anillo en dos direcciones. La simetría de dichas ondas en un sentido u otro, provocaría que el movimiento global del átomo “portador” fuera igual a cero o nulo.

Por eso es necesario el segundo átomo, el “iniciador”, para que el “portador” se mueva. Este átomo sería el que permitiese el movimiento. Al no tener carga eléctrica alguna, provocaría una asimetría en las ondas energéticas, y funcionaría como un “empujón” para el “portador”.

Por último, para que el motor no sólo empiece a moverse sino también siga girando, el campo magnético aplicado debería oscilar según un patrón específico.

Esto que parece tan complicado funciona perfectamente en los cálculos realizados por los físicos, y todo a pesar de que incluso ellos reconocen no comprender completamente el papel del átomo “iniciador” en el proceso descrito.

Interés y aplicaciones

Según Sergej Flach, un físico del Instituto Max Planck de Alemania, teóricamente este desarrollo es muy interesante, aunque experimentalmente aún queden grandes cuestiones por resolver.

Para Roland Ketzmerick, otro físico teórico de la Universidad Técnica de Dresden, la idea del motor de dos átomos y luz está relacionada con largas configuraciones a modo de cadena de luz y átomos denominadas ratchets cuánticas. Ketzmerick señala el gran atractivo del diseño.

¿Pero para qué podría servir un motor tan pequeño? De momento para nada, publica Futura-Science. Sin embargo, su fabricación resulta de gran interés tanto en el plano teórico como en el plano experimental.

Sábado 13 Junio 2009
Yaiza Martínez

Artículo original en Tendencias 21

La pantalla VGA más pequeña del mundo, 0,27 pulgadas

por : Jesús Maturana: 13 Jun 2009, 8:26

Kopin Corporation acaba de presentar la pantalla con resolución VGA más pequeña del mundo, mide tan sólo 0,27 pulgadas de diagonal o, lo que es lo mismo, 6,8 milímetros de diagonal. Han conseguido un tamaño de pixel realmente impresionante: 2.9 x 8.7 µm.

Desde Kopin Corporation se jactan de disponer de la pantalla VGA (640×480) más pequeña habiendo reducido un 40% el tamaño más pequeño anterior a ésta. El tamaño de pixel es importante y gracias al nuevo diseño de los pixeles que además de ser más pequeños consumen menos energía.

Los planes de la compañía son presentar pantallas con mayor resolución haciendo uso de su nueva tecnología de fabricaciones de pixeles. Con ello prometen nuevas pantallas SVGA (800×600) con una diagonal de 0,34″, XGA (1024 x 768) 0,44″ y SXGA (1280 x 1024) de 0,56 “. Son pantallas ideales para visores de cámaras digitales que requieren visores de alta resolución así como para dispositivos militares como gafas de visión nocturna y similares.

A continuación os dejamos una imagen, es sorprendente lo pequeña que es a comparación de una moneda, penique americano, y su propio conector LVD.

Artículo original en The Enquirer

AMD Phenom II Black Edition TWKR, la crème de la crème

por : Jesús Maturana: 13 Jun 2009, 11:30

La compañía que compite de tú a tú con Intel en el terreno de los microprocesadores y con NVIDIA en el de gráficas está apunto de anunciar un nuevo modelo de procesador indicado para los usuarios más exigentes y amantes del overclock. Se trata del nuevo Phenom II BE TWKR (de Tweaker).

De momento no hay muchos datos sobre él puesto que lo único que se conoce es lo que el CEO de Maingear PC ha comentado de la unidad que han recibido de AMD. Se trata de una unidad Black Edition, por tanto tiene el multiplicador desbloqueado y además es una versión exclusiva, en comparación con los Black Edition.

Se espera que supere en rendimiento al buque estandarte de AMD, el Phenom II BE 955, y a la vez ofrecer una gran capacidad de overclock. Como hemos dicho no hay datos sobre frecuencias y consumo de momento, habrá que esperar a que AMD haga oficial el mismo dado que es de suponer que la unidad entregada a Maingear PC esté bajo NDA.

Vendrá dentro de una caja negra preparada para la ocasión y cabe la posibilidad de que no pueda adquirirse por separado y sea servido sólo a marcas que monten equipos elitistas, pero conociendo la estrategia de AMD con sus Black Edition esa posibilidad es realmente remota.

Artículo original en The Enquirer

sábado, 6 de junio de 2009

Obama alter ego

Ooooh!!!

Teclado para navegar en internet....

Teclado para chatear...

La criptografía cuántica, más cerca

Una nueva investigación hace viable la comunicación de banda ancha en canales cifrados cuánticamente

En un futuro próximo, la computación cuántica nos permitirá descifrar, de manera relativamente fácil, la información cifrada con los métodos actuales. Sin embargo, otra aplicación de la física cuántica, la criptografía cuántica, nos permitirá usar nuevas formas de cifrado que resultarán virtualmente indescifrables. Su aplicación práctica está más cerca gracias a una investigación del laboratorio Cavendish de la Universidad de Cambridge. Sus desarrollos hacen viable la comunicación de banda ancha en canales cifrados cuánticamente. Por Rubén Caro.

La mayoría de sistemas de cifrado actuales se basan en la utilización de combinaciones numéricas para ocultar la información. Utilizan problemas matemáticos difíciles de resolver por los ordenadores actuales, como descomposiciones de números primos muy grandes. Esas combinaciones numéricas son tan complejas que garantizan que la información no pueda ser descifrada.

Pero esto no es estrictamente cierto. Esas claves son suficientemente complejas como para garantizar que no pueden descifrarse en un cierto período de tiempo, lo suficientemente largo como para ser consideradas seguras. Haciendo honor a la frase de Sherlock Holmes "... Lo que un hombre puede esconder, otro hombre puede descubrirlo..." , cualquier mensaje cifrado puede ser descifrado por cualquier ordenador si dispone de suficiente tiempo.

Actualmente, un ordenador personal puede necesitar varias horas para descifrar una clave de 256bit. Pero podría tardar varios años en descifrar una de 512bit. En la práctica, para muchas aplicaciones una clave de 40bit puede considerarse segura, pero para otras puede ser necesaria una de 2048bit. Hoy en día la autoridades que manejan información sensible consideran que una encriptación de 1024bit ya es insegura, y recomiendan utilizar claves de al menos 2048bit. En algunos ámbitos incluso se ha intentado declarar ilegal el uso de encriptaciones tan potentes sin autorización, porque eso facilitaría la ocultación de datos a las autoridades.

Esta aproximación a la criptografía tiene una debilidad intrínseca, y es que se basa en la falta de velocidad de cálculo de los procesadores actuales. En un futuro próximo, la computación cuántica nos permitirá descifrar con relativa facilidad esas claves. Los problemas matemáticos que plantean podrán ser resueltos con celeridad suficiente como para dejar obsoleto ese sistema de encriptación.

Nuevo principio de encriptación

Pero hay otra aproximación al problema de la encriptación. La física cuántica nos dice que no se puede medir un sistema sin alterarlo. Con el mismo acto de medirlo ya lo estamos alterando de alguna manera. La criptografía cuántica se basa en ese principio para encriptar la información. Si alguien intenta leer el mensaje sin la clave correcta, la información se destruye en el proceso, emulando la idea de Leonardo DaVinci en su criptex.

Normalmente se utilizan los fotones de luz como vehículo de información. Se polarizan mediante filtros, haciendo que vibren en una dirección determinada, y se envían. El receptor conoce la combinación de filtros usada por el emisor y la utiliza para recibir los fotones. La única manera de leer la información de esos fotones es hacerla pasar por filtros que estén orientados del mismo modo en que fueron enviados.

Sólo hay una oportunidad de leer la información contenida en un fotón. Porque el mismo acto de filtrarlo altera su estado de vibración, así que la información se pierde si el filtro no es el correcto. Si alguien intenta interceptar los fotones para descifrarlos, al no conocer la combinación de filtros adecuada nunca tendrá acceso a la información. Además, al intentar leer los fotones los estará corrompiendo. De manera que el receptor original verá las alteraciones provocadas por el intruso y sabrá de su presencia.

Canal limpio

Una razón para que aún no haya una aplicación práctica extendida de esta tecnología es que la comunicación debe hacerse por un canal cuántico limpio, que no altere los fotones durante el viaje. De momento se ha conseguido probar un canal válido para este tipo de comunicación de unos 150Km de largo usando fibra óptica. Una distancia semejante se ha alcanzado probando comunicaciones entre satélites en órbita, donde la densidad de la atmósfera es tan tenue que casi no altera los fotones.

Otro campo que requiere avances es el de la tecnología necesaria para transmitir la señal. La tecnología necesaria en el emisor para codificar y enviar la señal, así como en el receptor para recibir y descodificar la información. Todo en tiempo real. Hasta ahora era necesario usar sistemas criogénicos y combinaciones complejas de dispositivos ópticos avanzados. Sin embargo, los técnicos del laboratorio Cavendish de la Universidad de Cambridge han desarrollado un par emisor-receptor que resuelve en gran medida este problema. Han creado un sistema que utiliza un láser atenuado como emisor de fotones, y un detector compacto de fotodiodos como receptor. Ambos son capaces de trabajar a altas velocidades. Según su estudio, utilizando estos dispositivos sería viable la comunicación de banda ancha de alta seguridad en canales de fibra óptica.

El hecho de que se haga viable la encriptación cuántica es una buena noticia para entes tan importantes como los gobiernos o la banca, puesto que la confidencialidad de las comunicaciones es básica para ellos. Apacigua los recelos que podrían albergar ante la llegada de los computadores cuánticos, que podrían suponer una amenaza para su seguridad. También puede favorecer las inversiones y las apariciones de proyectos en este campo, como éste en España sobre la creación en 2010 de una red metropolitana de criptografía cuántica.


Lunes 18 Mayo 2009
Rubén Caro

Artículo original en Tendencias 21

AMD presenta su nuevo procesador de seis núcleos

Bajo el nombre de Opteron Six-Core, y cinco meses antes de lo previsto, AMD ha anunciado la disponibilidad de su procesador de seis núcleos para servidores de dos, cuatro y ocho sockets.

Según ha comentado la propia compañía, se espera que los equipos basados en los procesadores AMD Opteron Six-Core, con nombre en clave “Istambul”, estén disponibles a principios de este mes en los principales fabricantes incluyendo Cray, Dell, HP, IBM y Sun Microsystems. Por su parte, las versiones HE, SE y EE del procesador están previstas para la segunda mitad de 2009.

Los nuevos procesadores impulsan la infraestructura de plataforma existente y una arquitectura de memoria DDR-2 de bajo coste y eficiencia energética que puede ayudar a reducir los costes de adquisición de un sistema. Además, el volumen de trabajo de virtualización y bases de datos y el HPC (High Performance Computing) se beneficiarán de un ancho de memoria 4P STREAM mejorada de más del 60%, según AMD. Esto es posible gracias a la tecnología de Hypertransport HT Assist que ayuda a reducir la latencia y el tráfico entre procesadores.

Por último, la compañía ha comentado que el nuevo procesador AMD Opteron Six-Core ofrece un rendimiento por vatio de más del 34% respecto a la anterior generación de procesadores quad-core en una misma plataforma. “Basándonos en nuestra estrecha colaboración con los clientes, creemos que existe un claro valor de cambio económico en el mercado de servidores”, ha señalado Patrick Patla, vicepresidente y director general de negocio de servidores y estaciones de trabajo de AMD. “El nuevo procesador AMD Opteron Six-Core satisface las crecientes necesidades de una combinación de un menor coste total de propiedad y un mayor rendimiento por vatio y escalabilidad. En pocas palabras, proporcionan un rendimiento de alta gama que supone un balance final eficiente.”

Artículo original en IDG.es

El tiempo de arranque del ordenador tiende a desaparecer

El desarrollo de nuevos materiales permitirá evitar las molestas esperas

El tiempo necesario para que los sistemas informáticos actuales estén preparados es de unos 40 segundos. En los últimos años ha habido muchos intentos de reducir ese tiempo. Tanto desde el software, utilizando diferentes estrategias para arrancar, como desde el hardware, creando máquinas más rápidas. Pero recientes investigaciones apuntan que la evolución de los materiales ferroeléctricos nos permitirá hacer desaparecer la molesta espera a la que estamos acostumbrados. Por Rubén Caro.

Todos hemos sufrido y sufrimos cada día la larga espera que hay que soportar desde que pulsamos el botón de encendido hasta que finalmente el ordenador está listo para recibir órdenes. En un PC de escritorio o en un portátil actual, ese tiempo es el que necesita el sistema operativo para acomodarse en la memoria RAM, poner en marcha algunos dispositivos internos, establecer conexiones, y posiblemente comprobar el estado de algunos periféricos. Durante los últimos años se han ido reduciendo paulatinamente el tiempo de arranque de estos sistemas, que aún ronda entre 20 y 50 segundos. En algunos sistemas operativos, los tiempos son igualmente largos en el momento de apagar.

La base del problema está en que, hoy en día, los discos duros son tan lentos que es necesario disponer de una memoria de respuesta rápida para que el sistema trabaje de manera ágil, la memoria RAM. El inconveniente es que esa memoria no mantiene los datos una vez que se corta el suministro eléctrico, y eso hace que los lentos discos duros sean necesarios para guardar los datos mientras el sistema está desconectado.

Desde la perspectiva del usuario, siempre ha sido una molestia considerable. Quizá por eso, desde que los ingenieros de Apple empezaron a innovar con diferentes sonidos y gráficos de bienvenida, los demás no han hecho más que imitarles. Todo para intentar compensar el agravio con buenas vibraciones. Muchos usuarios simplemente son conscientes de que es una pérdida de tiempo e intentan compensarla de alguna manera. Le dan al botón y se preparan un café mientras arranca, o aprovechan para organizar la mesa de trabajo. Pero también es cuestión de eficiencia. En algunas oficinas hay alguien que se encarga de ir encendiendo todos los ordenadores antes de que lleguen los trabajadores. De esta manera, cuando llegan a su puesto solo deben indicar su usuario y contraseña y ya pueden empezar.

Se ha intentado reducir el problema

En lo referente al software, se han desarrollado estrategias como la llamada suspensión, es decir, mantener la memoria RAM alimentada para mantener el sistema congelado. Pero esto sólo ha ocasionado pérdida de datos, puesto que la volatilidad de la memoria RAM es grande, y protestas de los observadores medioambientales puesto que el sistema consume energía incluso cuando no está en uso. Para evitar ese desperdicio de energía, otra estrategia usada es la hibernación. Consiste en guardar una copia exacta de la memoria RAM en el disco para poder desconectarla sin perder datos. Sin embargo, al despertar hay que volver a mover los datos a la RAM, y el resultado es que se sigue tardando unos 15-20 segundos en hibernar y otros tantos en despertar.

Es desde la comunidad del software libre desde donde se perciben mayores avances, tras conseguir fondos de varias empresas interesadas, como IBM, Novell o Sun. En los últimos meses, las nuevas versiones de los diferentes sistemas operativos libres han experimentado notables reducciones en el tiempo de arranque. Proyectos en este sentido son el Moblin de Intel, con el que espera conseguir tiempos de arranque de 2 segundos en los miniportátiles actuales, o el KSplice, que permite evitar la necesidad de reiniciar los servidores para evitar perder tiempo. Otro proyecto es el Presto, que usa la tecnología Linux para crear un sistema paralelo que arranca en menos de 10 segundos.

También hay algunas mejoras en los referente al hardware. La aparición en escena de los dispositivos de almacenamiento de estado sólido SSD, mucho más rápidos que los actuales, supondrán una mejora sustancial. Ya existen algunos computadores equipados con dispositivos de este tipo, aunque de poca capacidad. Pero también empiezan a salir al mercado los primeros modelos con capacidades considerables, y que acabarán sustituyendo a los discos duros actuales. Los precios aún resultan un tanto abusivos para el consumidor medio, pero pronto se generalizarán en el mercado y los veremos a precios más asequibles.

La solución pueden ser los nuevos materiales

Sin embargo, la mejora más importante, según un estudio de científicos de varias universidades estadounidenses, parece ser el desarrollo de los dispositivos de memoria hechos con materiales ferroeléctricos. Es el siguiente paso en la tecnología usada actualmente en los chips de algunas tarjetas de crédito o en el DNIe. Estos dispositivos permiten el desarrollo de memorias persistentes. Al contrario que la actual memoria RAM de los ordenadores, que se borra cuando deja de ser alimentada, este tipo de memorias no necesitaría de una fuente continua de alimentación eléctrica. Además, la transferencia de datos sería más rápida aún que la RAM actual, que ya es mucho más rápida que un disco duro.

El uso eventual de esta tecnología reemplazaría por completo a los discos duros actuales (o a los próximos SSD) y también a la misma memoria RAM. El modo de funcionamiento interno del sistema variaría. Porque ya no sería necesaria una memoria rápida, pero perecedera, para trabajar y una memoria lenta, pero persistente, para guardar los datos. Todo el trabajo se haría sobre el mismo dispositivo de memoria, que sería suficientemente rápido para trabajar y también sería capaz de conservar los datos en el tiempo, incluso si fallase el suministro eléctrico.

Si esto finalmente se desarrolla a ese nivel, sólo habría que esperar unos pocos segundos hasta que el sistema estuviera listo, debido al aumento de velocidad. Sin embargo, existe la posibilidad de que los propios sistema operativos evolucionen para aprovechar esta nueva tecnología. Podrían aparecer sistemas preparados para arrancar en tiempo cero, como este proyecto de sistema operativo, ideado para funcionar sin esperas. Ni siquiera tiene un sistema de archivos propiamente dicho. Cuando el sistema se cierra nada cambia en el disco, simplemente la máquina se apaga. Los datos ya están organizados de manera que cuando se enciende otra vez tampoco hay que cambiar nada. Simplemente continúa funcionando. Sin la necesidad de copiar todos los datos del disco duro a la memoria, y de la memoria al disco duro otra vez, el arranque de un sistema así sería casi instantáneo.


Lunes 01 Junio 2009
Rubén Caro

Artículo original en Tendencias 21

Peligra nuestra identidad en la red

Un informe advierte de los riesgos en la gestión de nuestra personalidad virtual

Nuestra identidad personal puede verse afectada por la gestión de la identidad virtual. Esta es la conclusión a la que llega un estudio realizado por el Centro para el Análisis de la Sociedad de la Información y Telecomunicación. En este informe se concluye que las personas más vulnerables son los jóvenes, debido al uso mayoritario de Internet. Por ello, es fundamental una mejora de la educación sobre la gestión de las TIC en nuestra vida cotidiana. Para ello los padres y los educadores tienen que tomar partido. Por Juan R. Coca


Peligra nuestra identidad en la red

Todo desarrollo tecnocientífico, Internet es uno de ellos, presenta dos caras indisolubles: una positiva y otra negativa. La positiva es conocida y está muy implementada a nivel empresarial, comercial, personal, etc. En cambio el desarrollo de la parte negativa, proveniente de los riesgos personales, está todavía en pañales. Por esta razón, el Centro para el Análisis de la Sociedad de la Información y Telecomunicación ENTER ha publicado un análisis sobre los riesgos de no tener una buena gestión de nuestra identidad digital.

En este informe se concluye que uno de los grupos sociales más vulnerables son los jóvenes. Esto es debido a que son los que mayor uso hacen de las TIC. Por ello, en el documento se afirma que la mejor manera de ayudarles es a través de la educación, mediante la complementación de su formación. En esta tarea las personas fundamentales son los padres y los educadores que tienen que estar vigilantes ante las situación de peligro potencial

La identidad digital

Hasta hace poco tiempo nuestra identidad personal tenía un ámbito de desarrollo geográfico relativamente limitado. Ello era debido a que se circunscribía a nuestro entorno personal directo: amigos, familia, compañeros de trabajo, etc. Sin embargo, como tantas otras veces, la red de redes ha dado un vuelco a nuestra realidad.

El boom de las redes sociales, de los chats o de los blogs personales ha hecho que, paulatinamente, se vaya dejando un pequeño rastro virtual de nuestras inquietudes, gustos, problemas, preocupaciones, etcétera en Internet. Muchos de nosotros, al hacer comentarios ponemos nuestro nombre, nuestra profesión o nuestro lugar de residencia. De esta manera, como ha expuesto Andoni Alonso en declaraciones personales, facilitamos la labor de las empresas en la adquisición de información, pero también aumentamos la complejidad a la hora de gestionar nuestra intimidad.

Tal y como afirma Ruth Gamero en ese informe, a los usuarios de Internet nos gusta pensar que tenemos o que debemos tener el control absoluto sobre la información que define nuestra identidad digital. Sin embargo, sigue diciendo, tener el control absoluto y la propiedad sobre nuestra información personal para desactivarla en cualquier momento, puede no ser compatible con la funcionalidad de la red. Esto es debido a que la red está basada en la solidaridad como criterio principal, por ello la mayoría de las aplicaciones, gestiones, etc. están pensadas para que muchas personas interactúen sobre ellas.

Gestión de riesgos

Javier Echeverría en su obra Telépolis ha mostrado que las TIC traen consigo una serie de riesgos y problemas, de los cuales los más relevantes son los siguientes: la incertidumbre sobre el futuro del espacio electrónico, la inestabilidad, la alteración de la identidad, el dominio de las mentes y los hábitos de acción, y por último el impacto del espacio electrónico sobre las sociedades.

La existencia de estos riesgos, ha hecho que otros estudiosos del tema, José A. López Cerezo y José Luis Luján, expusieran en su Ciencia y política del riesgo una serie de pautas políticas a seguir con el objetivo de minimizar los posibles riesgos. Estos autores afirman que el riesgo, como decía Ulrich Beck en su Sociedad del riesgo, es inescindible de nuestro sistema social. Por este motivo, es fundamental desarrollar mecanismos democráticos de participación en la gestión de los mismos para así fomentar el debate y establecer procesos de toma de decisión más globales.

En este sentido, Gamero expone el ejemplo de la nueva moda estadounidense del sexting. Esto consiste en fotografiarse desnudo con el móvil y enviar mensajes con las imágenes a los amigos más cercanos. Pues bien, según el documento de ENTER, un 20% de los jóvenes estadounidenses de entre 13 y 17 años ya ha enviado alguna imagen o vídeo suyo desnudo o semidesnudo a alguien. Este hecho suele ser inocente, pero puede darse el caso que las imágenes acaben en Internet y puedan ser vistas por millones de personas.

Por todo esto, es preciso tener presente que es posible que determinadas acciones que realicemos puedan llegar a la red y quedar grabadas permanentemente y fuera de nuestro propio control. Esto hace que la complejidad en la gestión de nuestra intimidad se incremente notablemente, por tanto es fundamental ser prudentes respecto a la información personal que se vierta en Internet.


Jueves 04 Junio 2009
Juan R. Coca

Artículo original en Tendencias 21

Windows 7, a mitad de precio que Vista

por : Juan Ranchal: 06 Jun 2009, 12:41

La filtración de una nota de la cadena minorista Best Buy, permite adelantar el precio de venta del próximo sistema operativo cliente de Microsoft. En concreto, el documento señala que la actualización a las versiones Home Premium y Professional costaría 49,99 y 99,99 dólares respectivamente. Un precio agresivo, la mitad que lo que cuesta Vista.

Además de no dejar en muy buen lugar a Windows Vista, “7 no sólo es un Vista que funcione” dicen en la nota, Best Buy detalla el precio de la actualización a las versiones que se suponen serán las más vendidas del sistema operativo.

Si se confirman estas cifras para la actualización, los especialistas en Microsoft avanzan que las versiones completas en retail de Home Premium y Professional costarían 99 y 149 dólares respectivamente, un precio realmente agresivo, menor en un 60 por ciento que Vista. Claro que quizá Vista no sea el referente más adecuado por su alto precio y la actual situación económica.

Los clientes que hayan pagado recientemente 300 dólares por una copia en retail de las versiones superiores de Windows Vista estarán encantados, ya que no se contemplan actualizaciones gratuitas hasta los equipos y licencias adquiridos a partir del 26 de junio.

Algo que se podrá hacer en Best Buy a partir de esa fecha, hasta el 22 de octubre que llegará el lanzamiento oficial de la versión en retail. Mucho antes, este mismo mes, Microsoft entregará a los OEM la versión RTM para preinstalar en equipos nuevos, edición, que dicen anda rulando en las redes de intercambio de archivos y servicios de descarga directa.

Artículo original en The Enquirer

Discos duros de 15 TB en 2013

por : Juan Ranchal: 06 Jun 2009, 10:44

El director de la división de productos de almacenamiento de Hitachi, anuncia discos duros con 15 Tbytes de capacidad de almacenamiento para el año 2013/2014, gracias al aumento de la densidad hasta 2,4 Terabytes por pulgada cuadrada en formato estándar de 3,5 pulgadas. Parece que el disco duro se resiste a abandonar la supremacía como estándar de almacenamiento frente a las unidades basadas en Flash.

Actualmente los discos duros de 3,5 pulgadas tienen una densidad de 400 Gbytes por pulgada cuadrada. Según el responsable de Hitachi, en los próximos doce meses se incrementaría hasta los 600 Gbytes, alcanzando entre 2011 y 2012 1,2 Tbyte por pulgada cuadrada.

Sus previsiones apuntan a que en menos de dos años saldrían al mercado discos duros con 3 Tbyte por plato y entre 2013 y 2014, unidades con cinco platos en formato de 3,5 pulgadas para alcanzar los 15 Tbytes de capacidad de almacenamiento.

Se anuncian además nuevos diseños en las cabezas lectoras y técnicas para el almacenamiento de información, aunque no se han anunciado si llegarán nuevas interfaces de transferencia de datos capaces de mover con garantías tal cantidad de información.

Artículo original en The Enquirer