
Saludos a todos los que me conocen... Güeno, este nio es un "Blós teunolóXico" para aprender y difundir trucos del "guindous", del LINUX, recetas de cocina, chismes de la "farrándula", "jotos", intercambiar "sofguear" LIBRE, aprender algo sobre "inseguridá" informática, escuchar música, comentar animé, leer algo de filosofía y todo un yavorái surtido de cosas "teunolóxikas". (Alumnos de mi curso tienen descuento...)
sábado, 27 de diciembre de 2008
En 12 años Internet acabará con la división entre la vida física y virtual
La batalla para preservar la propiedad intelectual perdurará en 2020, según una encuesta
Internet acabará en doce años con la división entre la vida física y virtual, según el 56% de 1.200 expertos encuestados por la Elon University y el Pew Internet and American Proyect. Tres de cada cinco encuestados no cree asimismo que en 2020 las leyes, la industria tecnológica y los medios de comunicación ejerzan ya un control efectivo sobre la propiedad intelectual y el 61% opina que la gente será capaz de encontrar fórmulas para superar los obstáculos que intentan salvaguardar los contenidos de Internet, como la marca de agua digital o las huellas digitales. La expansión de Internet proseguirá y transformará las relaciones sociales básicas, pero no generará necesariamente un mundo mejor, según los expertos. Por Yaiza Martínez.
La Elon University y el Pew Internet and American Project (iniciativa del Pew Research Center que pretende, sin ánimo de lucro, explorar el impacto de Internet en la sociedad), acaban de publicar un informe titulado The Future of the Internet III en el que expertos en la Red definen cómo será la red de redes en el año 2020.
A los especialistas se les preguntó qué dispositivos se usarán para acceder a Internet entonces, y cómo nos conectaremos; si la tolerancia social se incrementará gracias a las nuevas formas de conexión; si nuestro trabajo y nuestra vida cotidiana serán mejores; y hasta dónde habrá llegado la influencia de la realidad virtual y de la realidad aumentada (conjunto de dispositivos que añaden información virtual a la información física ya existente).
Casi 1.200 opiniones
Los especialistas contestaron, por ejemplo, que en 2020 el teléfono móvil será el dispositivo principal de conexión a la Red; que para entonces seguirá existiendo la lucha entre los defensores del copyright y los piratas; y que las consecuencias para la sociedad de que habitemos un mundo hiper-conectado no están hoy por hoy ni mucho menos claras.
Según se explica en la presentación del informe, para su elaboración fueron consultadas un total de 1.196 personas, entre activistas de la Red, sus artífices y personas involucradas en organizaciones como el World Wide Web Consortium, la ICANN o la Internet Society.
A los participantes en la encuesta se les presentaron ocho posibles escenarios del año 2020 y se les pidió que seleccionaran si estaban “mayormente de acuerdo” o “mayormente en desacuerdo” con cada uno de ellos.
Los resultados fueron los siguientes: un 64% de los especialistas señaló que en 2020 los interfaces de usuario (medios con los que el usuario se comunica con el ordenador) ofrecerán opciones avanzadas de tacto, habla y tecleado.
Por otro lado, el 78% afirmó que la arquitectura original de Internet no habrá sido sustituida por una próxima generación de Red para esas fechas.
Internet no será seguro
Asimismo, tres de cada cinco encuestados no cree que en 2020 las leyes, la industria tecnológica y los medios de comunicación ejerzan ya un control efectivo sobre la propiedad intelectual.
Por el contrario, los especialistas tienden a opinar que la persecución entre los poseedores de los copyrights y los “crackers” (ladrones de información) seguirá existiendo.
De hecho, a la pregunta de si pensaban que en 2020 las tecnologías de protección contra los piratas de la Red serían eficientes, el 61% respondió que creía que no: la gente será capaz de encontrar fórmulas para superar los obstáculos que intentan salvaguardar los contenidos de Internet, como la marca de agua digital o las huellas digitales.
Los resultados de la encuesta han demostrado asimismo que una de las preocupaciones constantes de los expertos es la tensión entre seguridad y privacidad.
Por ello, señalan los especialistas, resulta muy importante aumentar y esclarecer la cooperación entre los líderes implicados en la toma de decisiones sobre Internet, su arquitectura y su política.
Internet y la sociedad
Según Janna Anderson, directora del Imagining Internet Center y profesora de comunicaciones de la Elon University, además de autora principal de este informe, actualmente “Internet es utilizado por un total de 1,6 mil millones de personas, y se espera que mil millones más se conecten pronto”.
Es decir, que la sociedad está cada vez más conectada. En 2020, lo estará hasta tal punto que, en opinión de un 56% de los expertos, las divisiones entre el tiempo privado y el tiempo de trabajo, así como entre la realidad física y la virtual, se habrán difuminado. Las relaciones sociales básicas de las personas con acceso a Internet sufrirán un impacto inevitable, aseguran los especialistas.
Por otro lado, los expertos expresan la preocupación de que esta expansión de conexiones a Internet –que avanzarán a medida que los teléfonos móviles se conviertan cada vez más en medios de conexión a la Red- no corra en paralelo con otros avances.
“La imagen que pintan del futuro es que la tecnología dará a las personas la capacidad de ser estar más presentes en el mundo político y económico, pero eso no significará a la fuerza que el mundo vaya a ser más apacible”, señala el estudio.
Sólo el 33% de los encuestados señaló estar de acuerdo con la idea de que la diversidad de puntos de vista compartida en Internet propiciará una sociedad más tolerante, con porcentajes más bajos de violencia, de intolerancia y de crímenes.
Otro aspecto de la sociedad que recoge el informe: más de la mitad de los encuestados (el 55%) afirmó que muchas personas estarán en contacto en 2020 con los mundos virtuales o la realidad aumentada.
Domingo 21 Diciembre 2008
Yaiza Martínez
Extraído de Tendencias 21
Internet acabará en doce años con la división entre la vida física y virtual, según el 56% de 1.200 expertos encuestados por la Elon University y el Pew Internet and American Proyect. Tres de cada cinco encuestados no cree asimismo que en 2020 las leyes, la industria tecnológica y los medios de comunicación ejerzan ya un control efectivo sobre la propiedad intelectual y el 61% opina que la gente será capaz de encontrar fórmulas para superar los obstáculos que intentan salvaguardar los contenidos de Internet, como la marca de agua digital o las huellas digitales. La expansión de Internet proseguirá y transformará las relaciones sociales básicas, pero no generará necesariamente un mundo mejor, según los expertos. Por Yaiza Martínez.

A los especialistas se les preguntó qué dispositivos se usarán para acceder a Internet entonces, y cómo nos conectaremos; si la tolerancia social se incrementará gracias a las nuevas formas de conexión; si nuestro trabajo y nuestra vida cotidiana serán mejores; y hasta dónde habrá llegado la influencia de la realidad virtual y de la realidad aumentada (conjunto de dispositivos que añaden información virtual a la información física ya existente).
Casi 1.200 opiniones
Los especialistas contestaron, por ejemplo, que en 2020 el teléfono móvil será el dispositivo principal de conexión a la Red; que para entonces seguirá existiendo la lucha entre los defensores del copyright y los piratas; y que las consecuencias para la sociedad de que habitemos un mundo hiper-conectado no están hoy por hoy ni mucho menos claras.
Según se explica en la presentación del informe, para su elaboración fueron consultadas un total de 1.196 personas, entre activistas de la Red, sus artífices y personas involucradas en organizaciones como el World Wide Web Consortium, la ICANN o la Internet Society.
A los participantes en la encuesta se les presentaron ocho posibles escenarios del año 2020 y se les pidió que seleccionaran si estaban “mayormente de acuerdo” o “mayormente en desacuerdo” con cada uno de ellos.
Los resultados fueron los siguientes: un 64% de los especialistas señaló que en 2020 los interfaces de usuario (medios con los que el usuario se comunica con el ordenador) ofrecerán opciones avanzadas de tacto, habla y tecleado.
Por otro lado, el 78% afirmó que la arquitectura original de Internet no habrá sido sustituida por una próxima generación de Red para esas fechas.
Internet no será seguro

Por el contrario, los especialistas tienden a opinar que la persecución entre los poseedores de los copyrights y los “crackers” (ladrones de información) seguirá existiendo.
De hecho, a la pregunta de si pensaban que en 2020 las tecnologías de protección contra los piratas de la Red serían eficientes, el 61% respondió que creía que no: la gente será capaz de encontrar fórmulas para superar los obstáculos que intentan salvaguardar los contenidos de Internet, como la marca de agua digital o las huellas digitales.
Los resultados de la encuesta han demostrado asimismo que una de las preocupaciones constantes de los expertos es la tensión entre seguridad y privacidad.
Por ello, señalan los especialistas, resulta muy importante aumentar y esclarecer la cooperación entre los líderes implicados en la toma de decisiones sobre Internet, su arquitectura y su política.
Internet y la sociedad
Según Janna Anderson, directora del Imagining Internet Center y profesora de comunicaciones de la Elon University, además de autora principal de este informe, actualmente “Internet es utilizado por un total de 1,6 mil millones de personas, y se espera que mil millones más se conecten pronto”.
Es decir, que la sociedad está cada vez más conectada. En 2020, lo estará hasta tal punto que, en opinión de un 56% de los expertos, las divisiones entre el tiempo privado y el tiempo de trabajo, así como entre la realidad física y la virtual, se habrán difuminado. Las relaciones sociales básicas de las personas con acceso a Internet sufrirán un impacto inevitable, aseguran los especialistas.
Por otro lado, los expertos expresan la preocupación de que esta expansión de conexiones a Internet –que avanzarán a medida que los teléfonos móviles se conviertan cada vez más en medios de conexión a la Red- no corra en paralelo con otros avances.
“La imagen que pintan del futuro es que la tecnología dará a las personas la capacidad de ser estar más presentes en el mundo político y económico, pero eso no significará a la fuerza que el mundo vaya a ser más apacible”, señala el estudio.
Sólo el 33% de los encuestados señaló estar de acuerdo con la idea de que la diversidad de puntos de vista compartida en Internet propiciará una sociedad más tolerante, con porcentajes más bajos de violencia, de intolerancia y de crímenes.
Otro aspecto de la sociedad que recoge el informe: más de la mitad de los encuestados (el 55%) afirmó que muchas personas estarán en contacto en 2020 con los mundos virtuales o la realidad aumentada.
Domingo 21 Diciembre 2008
Yaiza Martínez
Extraído de Tendencias 21
sábado, 20 de diciembre de 2008
La armada británica completa el despliegue de "Windows para Submarinos"
Enviado por admin el 16. Diciembre 2008 - 20:29.
Según afirma hoy The Register, la Royal Navy y BAE Systems han anunciado que han completado antes de lo previsto su implementación de "Windows para Submarinos" (TM).
Redes ethernet de ordenadores Windows instaladas en cada submarino gobernarán a partir de ahora la flota nuclear británica. Aunque inicialmente se pensó que el sistema operativo utilizado sería Windows 2000, gente que ha trabajado después en el proyecto ha declarado a The Register que principalmente se utiliza Windows XP.
Extraído de Kriptópolis

Redes ethernet de ordenadores Windows instaladas en cada submarino gobernarán a partir de ahora la flota nuclear británica. Aunque inicialmente se pensó que el sistema operativo utilizado sería Windows 2000, gente que ha trabajado después en el proyecto ha declarado a The Register que principalmente se utiliza Windows XP.
Extraído de Kriptópolis
La gestión de una empresa debe empezar a basarse en sus valores más profundos
Según el consultor Dov Seidman, el cómo ha de imponerse al qué a la hora de hacer negocios Para que un negocio llegue a triunfar, su estrategia debe de empezar por basarse en valores y significados. Esta es una de las conclusiones a las que llega el consultor y experto en ética empresarial Dov Seidman en su último libro. Según Seidman, el cómo se hacen las cosas importa más que el qué y considera que los directivos y las empresas que triunfen serán aquellas que integren sus valores más profundos en sus conductas cotidianas. En un mundo hiperconectado ya no sirve la apariencia, ya que todos nuestros actos son transparentes para los demás. Seidman cree que un buen líder debe tener una visión de futuro, comunicarse abiertamente y no tener miedo a hacerse cargo de su autoridad. Por Raúl Morales
La gestión de una empresa debe empezar a basarse en sus valores más profundos
En un mundo tan rápido e hiperconectado, el éxito de la gestión al frente de una empresa se redefine cómo “la búsqueda de significado”. Esta es la principal tesis que el consultor Dov Seidman sostiene en su último libro, titulado “Cómo ¿Por qué cómo hacemos las cosas significa todo en los negocios (y en la vida)”. Bajo su punto de vista, cómo hacemos las cosas se debe imponer al qué hacemos.
Para exponer sus ideas, Seidman usa la metáfora de la ola, ese fenómeno que estamos acostumbrados a ver en los estadios de fútbol. Un fenómeno exitoso nace siempre de la pasión y de la inspiración. La ola no es una excepción, y nació hace 27 años de la mano de una animadora profesional llamada Krazy George Henderson. “Si consideramos la ola como una proceso de esfuerzo humano, nos damos cuenta inmediatamente de que cualquier persona puede empezar una”, escribe Seidman. “No tenemos que ser los dueños del estadio, los más ricos o los más poderosos, es realmente un acto democrático”.
Como recoge un artículo de Knowledege W.P. Carey, el autor lleva enseguida esta metáfora al terreno de los negocios. Según Seidman, estas olas nacen desde el cómo hasta el qué. Los individuos empiezan una ola actuando con fuerza y con eficiencia sobre las personas que les rodean. De igual modo, las empresas pueden construir sus propios “estadios” que permitan que alguien pueda lanzar una ola (dar lo mejor de sí). “En el mundo de los negocios, las empresas que viven en un éxito duradero, tienen algo que ocurre en su interior, una energía, algo parecido a una ola”, escribe.
Transparencia
El autor advierte que actualmente los problemas antiguos requieren soluciones innovadoras. En este sentido, considera que los directivos y las empresas que triunfen serán aquellas que integren valores en sus conductas cotidianas.
Ya no sirve gestionar una empresa “como siempre”. La economía es global. Un producto puede ser replicado en pocos días e Internet, los blogs y los chats hacen que los consumidores y los clientes estén conectados e intercambiando ideas constantemente. Antes de la llegada de Internet, los negocios se hacían sobre el valor de la reputación. Nuestra ética era esencial, pero no existían las comunicaciones que hay ahora, por lo que si cometíamos un error, sencillamente, nos podíamos cambiar de país o de pueblo. Ahora, vivimos en la época de la transparencia y cualquiera puede enterarse de que nuestra empresa ha cometido algún desliz o ha puesto en el mercado un mal producto o servicio.
Seidman pone un ejemplo de esto que se dio en el sistema sanitario de la Universidad de Michigan, en los Estados Unidos. Como en cualquier negocio sanitario, esta empresa tenía que litigar día sí y día no con las negligencias médicas de sus propios empleados. La estrategia habitual cuando se daban estos casos era básicamente defensiva. Los directivos de la empresa estudiaron la situación y dieron un paso adelante, decidiendo probar algo totalmente diferente.
Llegaron a la conclusión de que, como profesionales de la medicina, la curación era su máximo valor y visión, por lo que había llegado el momento de implementar este valor respecto a uno de sus mayores problemas: los litigios. Los médicos empezaron a manejar estas situaciones pidiendo perdón cuando se había producido un error. Sorprendentemente, los casos de malas prácticas médicas se redujeron significativamente después de poner en marcha esta política.
Forjando una conexión basada en la confianza, los médicos descubrieron que los pacientes estaban dispuestos reconocer que los errores eran inevitables y que los doctores eran humanos. Esto tuvo el efecto de “cortocircuitar” su rabia sobre el sistema porque éste ahora tenía un rostro humano que reconocía sus errores.
El sistema sanitario de la Universidad de Michigan trascendió su modo habitual de hacer negocios y optó por vivir sus valores más importantes. Las decisiones de sus directivos no se basaron en el ¿qué hacemos? sino en el ¿qué deberíamos hacer?
Modelos de cultura corporativa
El en el libro, Seidman nos muestra muchos ejemplos de empresas y personas que triunfan porque viven sus valores fundamentales. A través de estas historias, el autor demuestra que muchos modelos de dirección antiguos son cada vez menos efectivos. Por ejemplo, la táctica de “el palo y la zanahoria” puede motivar a los trabajadores, pero éstos nunca van a entregar a la empresa su parte más brillante.
Un directivo y una empresa que adopta una cultura corporativa basada en la inspiración y el valor, es más fácil que “atrape” a sus clientes. ¿Por qué? Porque el “qué” puede ser copiado, pero una cultura corporativa basada en el “cómo” no se puede copiar ni imitar.
Pero, ¿cómo un directivo puede basar su estrategia en el cómo? En primer lugar, considera que los buenos directivos tienen lo que él llama “visión”, visión para imaginar un futuro mejor para él y para quienes trabajan a su lado.
La comunicación es otra de las claves. Así, afirma que para tener éxito es necesario atraer a quienes nos rodean y ayudarles a ver esa visión que tenemos. Para ello debemos ser transparentes y abiertos en nuestra comunicación, de tal manera que sientan que realmente estamos compartiendo algo con ellos.
Por otro lado, Sediman considera que los directivos no deben tener miedo a hacerse cargo de su autoridad y a tomar decisiones. Están al frente de sus visiones y no tienen miedo de “saltar” al escenario de vez en cuando.
Pero no basta con tener visiones, hay que saber planificarlas e implementarlas. Seidman nos recuerda que el mundo de los negocios está lleno de ideas que no han sido implementadas. Para ello, es necesario elegir el momento y encontrar la manera de conseguir que las cosas se hagan, tengan lugar.
Jueves 18 Diciembre 2008
Raúl Morales
Extraído de Tendencias 21
La gestión de una empresa debe empezar a basarse en sus valores más profundos
En un mundo tan rápido e hiperconectado, el éxito de la gestión al frente de una empresa se redefine cómo “la búsqueda de significado”. Esta es la principal tesis que el consultor Dov Seidman sostiene en su último libro, titulado “Cómo ¿Por qué cómo hacemos las cosas significa todo en los negocios (y en la vida)”. Bajo su punto de vista, cómo hacemos las cosas se debe imponer al qué hacemos.

Como recoge un artículo de Knowledege W.P. Carey, el autor lleva enseguida esta metáfora al terreno de los negocios. Según Seidman, estas olas nacen desde el cómo hasta el qué. Los individuos empiezan una ola actuando con fuerza y con eficiencia sobre las personas que les rodean. De igual modo, las empresas pueden construir sus propios “estadios” que permitan que alguien pueda lanzar una ola (dar lo mejor de sí). “En el mundo de los negocios, las empresas que viven en un éxito duradero, tienen algo que ocurre en su interior, una energía, algo parecido a una ola”, escribe.
Transparencia
El autor advierte que actualmente los problemas antiguos requieren soluciones innovadoras. En este sentido, considera que los directivos y las empresas que triunfen serán aquellas que integren valores en sus conductas cotidianas.
Ya no sirve gestionar una empresa “como siempre”. La economía es global. Un producto puede ser replicado en pocos días e Internet, los blogs y los chats hacen que los consumidores y los clientes estén conectados e intercambiando ideas constantemente. Antes de la llegada de Internet, los negocios se hacían sobre el valor de la reputación. Nuestra ética era esencial, pero no existían las comunicaciones que hay ahora, por lo que si cometíamos un error, sencillamente, nos podíamos cambiar de país o de pueblo. Ahora, vivimos en la época de la transparencia y cualquiera puede enterarse de que nuestra empresa ha cometido algún desliz o ha puesto en el mercado un mal producto o servicio.
Seidman pone un ejemplo de esto que se dio en el sistema sanitario de la Universidad de Michigan, en los Estados Unidos. Como en cualquier negocio sanitario, esta empresa tenía que litigar día sí y día no con las negligencias médicas de sus propios empleados. La estrategia habitual cuando se daban estos casos era básicamente defensiva. Los directivos de la empresa estudiaron la situación y dieron un paso adelante, decidiendo probar algo totalmente diferente.
Llegaron a la conclusión de que, como profesionales de la medicina, la curación era su máximo valor y visión, por lo que había llegado el momento de implementar este valor respecto a uno de sus mayores problemas: los litigios. Los médicos empezaron a manejar estas situaciones pidiendo perdón cuando se había producido un error. Sorprendentemente, los casos de malas prácticas médicas se redujeron significativamente después de poner en marcha esta política.
Forjando una conexión basada en la confianza, los médicos descubrieron que los pacientes estaban dispuestos reconocer que los errores eran inevitables y que los doctores eran humanos. Esto tuvo el efecto de “cortocircuitar” su rabia sobre el sistema porque éste ahora tenía un rostro humano que reconocía sus errores.
El sistema sanitario de la Universidad de Michigan trascendió su modo habitual de hacer negocios y optó por vivir sus valores más importantes. Las decisiones de sus directivos no se basaron en el ¿qué hacemos? sino en el ¿qué deberíamos hacer?
Modelos de cultura corporativa
El en el libro, Seidman nos muestra muchos ejemplos de empresas y personas que triunfan porque viven sus valores fundamentales. A través de estas historias, el autor demuestra que muchos modelos de dirección antiguos son cada vez menos efectivos. Por ejemplo, la táctica de “el palo y la zanahoria” puede motivar a los trabajadores, pero éstos nunca van a entregar a la empresa su parte más brillante.
Un directivo y una empresa que adopta una cultura corporativa basada en la inspiración y el valor, es más fácil que “atrape” a sus clientes. ¿Por qué? Porque el “qué” puede ser copiado, pero una cultura corporativa basada en el “cómo” no se puede copiar ni imitar.
Pero, ¿cómo un directivo puede basar su estrategia en el cómo? En primer lugar, considera que los buenos directivos tienen lo que él llama “visión”, visión para imaginar un futuro mejor para él y para quienes trabajan a su lado.
La comunicación es otra de las claves. Así, afirma que para tener éxito es necesario atraer a quienes nos rodean y ayudarles a ver esa visión que tenemos. Para ello debemos ser transparentes y abiertos en nuestra comunicación, de tal manera que sientan que realmente estamos compartiendo algo con ellos.
Por otro lado, Sediman considera que los directivos no deben tener miedo a hacerse cargo de su autoridad y a tomar decisiones. Están al frente de sus visiones y no tienen miedo de “saltar” al escenario de vez en cuando.
Pero no basta con tener visiones, hay que saber planificarlas e implementarlas. Seidman nos recuerda que el mundo de los negocios está lleno de ideas que no han sido implementadas. Para ello, es necesario elegir el momento y encontrar la manera de conseguir que las cosas se hagan, tengan lugar.
Jueves 18 Diciembre 2008
Raúl Morales
Extraído de Tendencias 21
El ser humano obedece ciegamente a las órdenes de hacer daño
La repetición del experimento de Milgram confirma que todavía la autoridad subyuga a la moral En los años 60 del siglo XX, el psicólogo Stanley Milgram realizó un controvertido experimento con el que demostró que la obediencia a las órdenes de una autoridad está por encima de la moral de casi cualquier individuo. Personas normales que creían estar aplicando dolorosas corrientes eléctricas a otras personas (en realidad actores que fingían estar sufriendo) no se detuvieron, y siguieron haciendo daño hasta que se les ordenó. Ahora, un experimento similar acaba de arrojar resultados similares: en cincuenta años, apenas nada ha cambiado en este sentido, aún “la férrea autoridad se impone a los fuertes imperativos morales de los sujetos de lastimar a otros”. Por Yaiza Martínez.
Experimento de Milgram: El investigador (V) persuade a L para que dé lo que éste cree son descargas eléctricas dolorosas a S, que en realidad es un actor. Fuente: Wikiemedia.
En los años 60 del siglo pasado, un psicólogo de la prestigiosa Universidad de Yale llamado Stanley Milgram realizó un controvertido experimento que fue bautizado como Experimento de Milgram.
El fin de la prueba era medir la buena voluntad de un participante para obedecer las órdenes de una autoridad, incluso cuando dichas órdenes entrasen en conflicto con su conciencia personal.
Los experimentos comenzaron en julio de 1961, un año después de que Adolf Eichmann fuera juzgado y sentenciado a muerte en Jerusalén por crímenes contra la humanidad durante el régimen nazi en Alemania.
Milgram estaba intrigado acerca de cómo un hombre completamente normal, e incluso aburrido, y que no tenía nada en contra de los judíos había podido ser un activo partícipe del Holocausto.
La curiosidad de Milgram
La curiosidad obligó a este psicólogo a llevar a cabo un experimento, en el que los participantes creyeron que estaban probando los efectos del castigo en el aprendizaje.
El Experimento de Milgram consistió en que un voluntario debía infringir daño a otro voluntario, que en realidad era un actor compinchado con el investigador y que simulaba dolor, sin que el otro voluntario fuera consciente del engaño.
Situado el actor en un módulo de cristal visible para el primer participante, se le colocaban electrodos a través de los cuales el primer voluntario debía enviar corrientes eléctricas al actor, corrientes que supuestamente eran extremadamente dolorosas. Estas corrientes iban aumentando de intensidad, mientras el actor hacía que sentía cada vez más dolor.
Los participantes se iban poniendo nerviosos de ver sufrir al otro, pero seguían obedeciendo al investigador, al menos hasta cierto punto.
Ahora, casi medio siglo después de que se desarrollara este experimento, otro psicólogo de la Santa Clara University , de Estados Unidos, ha descubierto que nada ha cambiado: la gente sigue dispuesta a hacer daño a otros, si se lo ordena una figura autoritaria.
Obediencia universal
Según la American Psychological Association, Jerry M. Burger repitió el Experimento Milgram demostrando que las tasas de obediencia ciega a la autoridad –por encima del dolor que esté sintiendo la otra persona- son tan sólo ligeramente más bajas que hace cincuenta años.
Por otro lado, la investigación demostró que no había diferencias en el grado de obediencia entre hombres y mujeres.
En la revista especializada American Psychologist , que pertenece a la American Psychological Association , ha aparecido un artículo en el que se explican estos resultados.
Según Burger, la copia del experimento ha demostrado que los mismos factores de situación que afectaban a la obediencia en el Experimento de Milgram siguen funcionando en la actualidad.
Milgram descubrió que, tras escuchar los primeros gritos de dolor del participante (actor) al aplicarle corrientes de 150 voltios, el 82,5% de los participantes seguían administrando descargas. Y de ese porcentaje, el 79% continuó haciéndolo, hasta los 450 voltios. En la réplica experimental de Burger, los porcentajes fueron similares, aunque las corrientes fueron aplicadas sólo hasta los 150 voltios.
Variaciones en la prueba
Las técnicas de Milgran fueron muy debatidas al publicarse los resultados de su experimento. Como resultado, existe actualmente un código ético para la experimentación psicológica, y ningún estudio utilizando procedimientos idénticos a los de Milgram había sido publicado en más de tres décadas, según Burger.
Este investigador introdujo una serie de variables en la prueba para lograr la aprobación institucional para su trabajo: la limitación a 150 voltios de las descargas (en lugar de hasta 450 voltios) fue una de ellas. Ese punto en las descargas es el más crítico, porque es cuando comienzan a aparecer más resistencia por parte de los participantes.
Además, en el estudio de Burger, se les repitió a los participantes que podían abandonar el experimento en cualquier momento, y que recibirían el dinero aunque lo dejasen a la mitad.
Por último, para que los voluntarios creyesen que las descargas eléctricas eran reales, se les suministró una descarga de 15 voltios (en el Experimento de Milgram las descargas “cebo” fueron de 45 voltios). A pesar de los cambios, las pruebas demostraron que la bondad no gana aún a la obediencia.
Resultados similares en experimento virtual
El Experimento de Milgram ha sido tan controvertido que se han llegado a realizar simulaciones virtuales de él. Tal y como explicamos hace un tiempo en Tendencias21 , el University College de Londres repitió en un entorno virtual dicho experimento con personajes reales y virtuales.
En este caso, los voluntarios sabían que los que sufrían las descargas eléctricas eran personas irreales. Una parte de ellos se comunicó con los personajes virtuales a través de un interfaz textual, y un segundo grupo fue introducido en un entorno gráfico, en el que podían ver a su interlocutor: la representación tridimensional de una mujer.
Los resultados, publicados en PlosOne fueron los siguientes: en el primer grupo todos los participantes administraron las 20 descargas eléctricas que se les pidió. En el segundo, tres personas aplicaron 19 descargas, mientras que otras tres provocaron, respectivamente 9, 16 y 18.
La mitad del segundo grupo admitió que había deseado detenerse, pero, de nuevo, la autoridad venció a sus propios impulsos. Aunque la finalidad de esta prueba era probar si es útil la realidad virtual para la investigación psicológica, de nuevo se recogieron resultados similares a los informados por Milgram y Burger.
Según lo describió Milgram, la férrea autoridad se impone a los fuertes imperativos morales de los sujetos de lastimar a otros y, aún con los gritos de las víctimas sonando en los oídos de los participantes, la autoridad subyuga con mayor frecuencia. La extrema buena voluntad de los adultos de aceptar casi cualquier requerimiento ordenado por la autoridad constituye el principal descubrimiento de estos experimentos.
Sábado 20 Diciembre 2008
Yaiza Martínez
Extraído de Tendencias 21
Experimento de Milgram: El investigador (V) persuade a L para que dé lo que éste cree son descargas eléctricas dolorosas a S, que en realidad es un actor. Fuente: Wikiemedia.
En los años 60 del siglo pasado, un psicólogo de la prestigiosa Universidad de Yale llamado Stanley Milgram realizó un controvertido experimento que fue bautizado como Experimento de Milgram.
El fin de la prueba era medir la buena voluntad de un participante para obedecer las órdenes de una autoridad, incluso cuando dichas órdenes entrasen en conflicto con su conciencia personal.
Los experimentos comenzaron en julio de 1961, un año después de que Adolf Eichmann fuera juzgado y sentenciado a muerte en Jerusalén por crímenes contra la humanidad durante el régimen nazi en Alemania.
Milgram estaba intrigado acerca de cómo un hombre completamente normal, e incluso aburrido, y que no tenía nada en contra de los judíos había podido ser un activo partícipe del Holocausto.
La curiosidad de Milgram

El Experimento de Milgram consistió en que un voluntario debía infringir daño a otro voluntario, que en realidad era un actor compinchado con el investigador y que simulaba dolor, sin que el otro voluntario fuera consciente del engaño.
Situado el actor en un módulo de cristal visible para el primer participante, se le colocaban electrodos a través de los cuales el primer voluntario debía enviar corrientes eléctricas al actor, corrientes que supuestamente eran extremadamente dolorosas. Estas corrientes iban aumentando de intensidad, mientras el actor hacía que sentía cada vez más dolor.
Los participantes se iban poniendo nerviosos de ver sufrir al otro, pero seguían obedeciendo al investigador, al menos hasta cierto punto.
Ahora, casi medio siglo después de que se desarrollara este experimento, otro psicólogo de la Santa Clara University , de Estados Unidos, ha descubierto que nada ha cambiado: la gente sigue dispuesta a hacer daño a otros, si se lo ordena una figura autoritaria.
Obediencia universal
Según la American Psychological Association, Jerry M. Burger repitió el Experimento Milgram demostrando que las tasas de obediencia ciega a la autoridad –por encima del dolor que esté sintiendo la otra persona- son tan sólo ligeramente más bajas que hace cincuenta años.
Por otro lado, la investigación demostró que no había diferencias en el grado de obediencia entre hombres y mujeres.
En la revista especializada American Psychologist , que pertenece a la American Psychological Association , ha aparecido un artículo en el que se explican estos resultados.
Según Burger, la copia del experimento ha demostrado que los mismos factores de situación que afectaban a la obediencia en el Experimento de Milgram siguen funcionando en la actualidad.
Milgram descubrió que, tras escuchar los primeros gritos de dolor del participante (actor) al aplicarle corrientes de 150 voltios, el 82,5% de los participantes seguían administrando descargas. Y de ese porcentaje, el 79% continuó haciéndolo, hasta los 450 voltios. En la réplica experimental de Burger, los porcentajes fueron similares, aunque las corrientes fueron aplicadas sólo hasta los 150 voltios.
Variaciones en la prueba
Las técnicas de Milgran fueron muy debatidas al publicarse los resultados de su experimento. Como resultado, existe actualmente un código ético para la experimentación psicológica, y ningún estudio utilizando procedimientos idénticos a los de Milgram había sido publicado en más de tres décadas, según Burger.
Este investigador introdujo una serie de variables en la prueba para lograr la aprobación institucional para su trabajo: la limitación a 150 voltios de las descargas (en lugar de hasta 450 voltios) fue una de ellas. Ese punto en las descargas es el más crítico, porque es cuando comienzan a aparecer más resistencia por parte de los participantes.
Además, en el estudio de Burger, se les repitió a los participantes que podían abandonar el experimento en cualquier momento, y que recibirían el dinero aunque lo dejasen a la mitad.
Por último, para que los voluntarios creyesen que las descargas eléctricas eran reales, se les suministró una descarga de 15 voltios (en el Experimento de Milgram las descargas “cebo” fueron de 45 voltios). A pesar de los cambios, las pruebas demostraron que la bondad no gana aún a la obediencia.
Resultados similares en experimento virtual
El Experimento de Milgram ha sido tan controvertido que se han llegado a realizar simulaciones virtuales de él. Tal y como explicamos hace un tiempo en Tendencias21 , el University College de Londres repitió en un entorno virtual dicho experimento con personajes reales y virtuales.
En este caso, los voluntarios sabían que los que sufrían las descargas eléctricas eran personas irreales. Una parte de ellos se comunicó con los personajes virtuales a través de un interfaz textual, y un segundo grupo fue introducido en un entorno gráfico, en el que podían ver a su interlocutor: la representación tridimensional de una mujer.
Los resultados, publicados en PlosOne fueron los siguientes: en el primer grupo todos los participantes administraron las 20 descargas eléctricas que se les pidió. En el segundo, tres personas aplicaron 19 descargas, mientras que otras tres provocaron, respectivamente 9, 16 y 18.
La mitad del segundo grupo admitió que había deseado detenerse, pero, de nuevo, la autoridad venció a sus propios impulsos. Aunque la finalidad de esta prueba era probar si es útil la realidad virtual para la investigación psicológica, de nuevo se recogieron resultados similares a los informados por Milgram y Burger.
Según lo describió Milgram, la férrea autoridad se impone a los fuertes imperativos morales de los sujetos de lastimar a otros y, aún con los gritos de las víctimas sonando en los oídos de los participantes, la autoridad subyuga con mayor frecuencia. La extrema buena voluntad de los adultos de aceptar casi cualquier requerimiento ordenado por la autoridad constituye el principal descubrimiento de estos experimentos.
Sábado 20 Diciembre 2008
Yaiza Martínez
Extraído de Tendencias 21
lunes, 15 de diciembre de 2008
Nueva generación de teléfonos móviles descargará 60 Mbps
Prototipo de LG para G4
[ 15/12/2008 - 09:06 CET ]
LG Electronics ha presentado un chip móvil compatible con la próxima generación de telefonía móvil.
Diario Ti: La mayoría de los operadores de telefonía móvil y empresas tecnológicas considera que la tecnología LTE (Long Term Evolution) será incorporada aceleradamente en las redes de telefonía móvil, al menos en Europa. Aunque la tarea principal de LTE será mejorar la actual red G3, se considera que, en la práctica, será la cuarta generación de tecnología móvil.
LTE ha sido diseñada principalmente para asegurar el flujo de grandes volúmenes de datos, a gran velocidad, en la red móvil a gran velocidad. En teoría, podría alcanzar una velocidad de descarga de 100 Mbit por segundo, como asimismo una velocidad de subida de datos de 50 Mbps. Se espera que los primeros operadores de telefonía móvil anuncien servicios LTE durante 2009.
La idea generalizada ha sido que LTE será usada principalmente mediante modems de PC, pero LG ha anunciado un chip con soporte para LTE, que puede ser usado en teléfonos móviles. LG ha demostrado el funcionamiento del chip instalándolo en un teléfono móvil operado con Windows.
Durante la demostración, realizada en el laboratorio de la compañía, se alcanzó una velocidad de descarga cercana a los 60 Mbps, y una velocidad de subida de datos de 20 Mbps. LG informa que durante los últimos tres años ha trabajado en el desarrollo del chips luego del lanzamiento del estándar 3GPPS. El trabajo ha incorporado a 230 ingenieros y su resultado es un chips de 13 x 13 mm, dimensiones que según LG serían óptimas para la próxima generación de terminales de bolsillo ligeros y de gran potencia.
Ahora que LG ha desarrollado y probado un prototipo del nuevo modelo de bolsillo para 4G los operadores comienzan a visualizar terminales comercialmente viables, indica Woo Hyuni Paik, director técnico de LG, en un comunicado. "Con esto se abren las posibilidades de que los operadores telefónicos puedan cooperar con nosotros y realizar pruebas de las nuevas redes con nuestras unidades. La tecnología LTE brinda mayores posibilidades de que las redes de los terminales de bolsillo pueda ser altamente compatibles, lo que nos fue el caso al introducirse 3G.
Extraído de Diario TI
[ 15/12/2008 - 09:06 CET ]
LG Electronics ha presentado un chip móvil compatible con la próxima generación de telefonía móvil.

LTE ha sido diseñada principalmente para asegurar el flujo de grandes volúmenes de datos, a gran velocidad, en la red móvil a gran velocidad. En teoría, podría alcanzar una velocidad de descarga de 100 Mbit por segundo, como asimismo una velocidad de subida de datos de 50 Mbps. Se espera que los primeros operadores de telefonía móvil anuncien servicios LTE durante 2009.
La idea generalizada ha sido que LTE será usada principalmente mediante modems de PC, pero LG ha anunciado un chip con soporte para LTE, que puede ser usado en teléfonos móviles. LG ha demostrado el funcionamiento del chip instalándolo en un teléfono móvil operado con Windows.
Durante la demostración, realizada en el laboratorio de la compañía, se alcanzó una velocidad de descarga cercana a los 60 Mbps, y una velocidad de subida de datos de 20 Mbps. LG informa que durante los últimos tres años ha trabajado en el desarrollo del chips luego del lanzamiento del estándar 3GPPS. El trabajo ha incorporado a 230 ingenieros y su resultado es un chips de 13 x 13 mm, dimensiones que según LG serían óptimas para la próxima generación de terminales de bolsillo ligeros y de gran potencia.
Ahora que LG ha desarrollado y probado un prototipo del nuevo modelo de bolsillo para 4G los operadores comienzan a visualizar terminales comercialmente viables, indica Woo Hyuni Paik, director técnico de LG, en un comunicado. "Con esto se abren las posibilidades de que los operadores telefónicos puedan cooperar con nosotros y realizar pruebas de las nuevas redes con nuestras unidades. La tecnología LTE brinda mayores posibilidades de que las redes de los terminales de bolsillo pueda ser altamente compatibles, lo que nos fue el caso al introducirse 3G.
Extraído de Diario TI
sábado, 13 de diciembre de 2008
Internet a 1Gbps en Japón para los usuarios de KDDI
En Europa los informes de cómo de lenta está siendo la implantación de la alta velocidad en las conexiones a Internet llenan páginas cada día. Estados Unidos no es una excepción, con una red de cable que se está quedando anticuada a causa del intensivo uso por parte de millones de hogares con Internet, la televisión y otros servicios.
En Japón en cambio los avances dejan perplejos a los usuarios domésticos de todo el mundo ante noticias como la siguiente:
El operador KDDI multiplicará por diez a partir del 1 de octubre la velocidad a los clientes que tienen 100 Megas, con lo que tendrán 1Gbps simétrico (de subida y de bajada) con lo que se convierte en el primer servicio FTTH que alcanza el Gbps.
Estará disponible inicialmente en el área de Tokio y la isla de Hokkaido.
Hikari One Home Gigabit, que es como se llama, costará unos 35 euros al mes, unos 25 euros más que la conexión a 100Mbps.
Los usuarios inalámbricos no podrán disfrutar al 100% de esta tecnología ya que los dispositivos wifi con el estándar inalámbrico más avanzado, el IEEE 802.11n, pueden alcanzar como máximo 600 Mbit/s por ahora.
Fuente: FUTURO DIGITAL - www.futurodigital.com
En Japón en cambio los avances dejan perplejos a los usuarios domésticos de todo el mundo ante noticias como la siguiente:
El operador KDDI multiplicará por diez a partir del 1 de octubre la velocidad a los clientes que tienen 100 Megas, con lo que tendrán 1Gbps simétrico (de subida y de bajada) con lo que se convierte en el primer servicio FTTH que alcanza el Gbps.
Estará disponible inicialmente en el área de Tokio y la isla de Hokkaido.
Hikari One Home Gigabit, que es como se llama, costará unos 35 euros al mes, unos 25 euros más que la conexión a 100Mbps.
Los usuarios inalámbricos no podrán disfrutar al 100% de esta tecnología ya que los dispositivos wifi con el estándar inalámbrico más avanzado, el IEEE 802.11n, pueden alcanzar como máximo 600 Mbit/s por ahora.
Fuente: FUTURO DIGITAL - www.futurodigital.com
Este es el plan de Google para revolucionar los navegadores web
Excepto Internet Explorer
[ 12/12/2008 - 08:06 CET ]
Google está desarrollando una nueva extensión que permitirá acceso directo a la CPU del usuario, haciendo posible un rendimiento máximo en las aplicaciones web.
Diario Ti: Las actuales aplicaciones web ya sea están basadas en estándares como los del concepto Ajax o en tecnologías que mediante extensiones del navegador integran otras categorías de contenidos en sitios web corrientes. Ejemplos de estos son los tecnologías Flash, Java y Silverlight.
Google es una compañía que ha invertido considerable trabajo y recursos en el desarrollo de aplicaciones basadas en la web. Tanto así que la compañía está desarrollando su propio navegador, Chrome, que con su sencillo interfaz elimina elementos distractores cuando los usuarios están más bien ocupados en los contenidos presentados por las aplicaciones web ejecutadas en el propio navegador.
Chrome incorpora el motor Javascript V8, que proporciona un desempeño en Javascript considerablemente mejor que la mayoría de los navegadores existentes. Sin embargo, todo indica que Google estima que Javascript no está, en sí, en condiciones de entregar el rendimiento que de muchas formas es necesario para que una aplicación web resulte en la misma experiencia para el usuario que una aplicación ejecutada localmente en el PC.
Una solución para lo anterior es traspasar determinadas tareas a una de las citadas extensiones, pero Google no acostumbra basar sus soluciones en tecnologías controladas por los competidores.
Por tal razón, Google está desarrollando su propia extensión para el navegador. Esta sería "neutral"; es decir, funcionaría con todos los navegadores, y sería compatible con todas las versiones modernas, x86, de Windows, Macintosh y Linux. La empresa desarrolla además soporte para otras arquitecturas de procesadores, como por ejemplo ARM y PPC, lo que abre la posibilidad de soporte para teléfonos móviles y consolas de juegos, entre otras cosas.
La finalidad elemental de la futura extensión, denominada Native Client (NaCl), sería dar a las aplicaciones web mucho mejor acceso a la capacidad de cálculo del procesador.
En un comentario en su blog, Brad Chen, del grupo Native Client, de Google, plantea el ejemplo de un sitio para el intercambio y edición de fotografías, que permite al usuario editar las fotos directamente en el navegador, sin abandonar sitio web. Esto puede ser conseguido actualmente, por ejemplo, usando una combinación de JavaScript y ejecución del servicio en el servidor. Esto requiere, sin embargo, el flujo de grandes volúmenes de datos entre el navegador y el servidor, lo que puede ocasionar grandes esperas, incluso cuando el usuario sólo decide hacer pequeños cambios a sus imágenes.
Otras posibilidades involucran el uso del gráfica 3D.
"La posibilidad de poder ejecutar código específico para sistemas en el PC del usuario permite realizar el procesamiento de las imágenes en la propia CPU del PC del usuario, lo que resulta en una aplicación mucho más ágil, al reducirse fuertemente la transmisión de datos y con ello los retrasos", escribe Chen.
A juicio de Chen, uno de los principales desafíos es la seguridad. "Para contribuir a proteger a los usuarios de malware, conservando la movilidad, hemos definido estrictas reglas para los módulos aceptados", escribe Chen. Entre otras cosas, los módulos deberán ser elaborados según una serie de criterios estructurales que hacen posible convertirlos en instrucciones. Asimismo, no estará permitido que los módulos contengan determinadas secuencias de instrucciones.
"Este marco estructural apunta a permitir a nuestro runtime detectar y evitar la ejecución de propagación de código potencialmente maligno. Entendemos que es un gran desafío hacer que esta tecnología sea segura y precisamente por esa razón la convertiremos en código abierto en una etapa temprana", indica Chen.
"A nuestro juicio, la evaluación y los comentarios de la comunidad de desarrolladores, sumada al análisis público de la herramienta, contribuyen considerablemente a mejorar la calidad y seguridad de tecnologías de este tipo". En ésta página, Google pública una versión de prueba de Native Client. La instalación es compleja e indudablemente no está adaptadas a usuarios finales, solo a expertos.
Versiones de pruebas están disponibles para Windows, Mac y Linux, y para los navegadores Firefox, Safari, Opera y Chrome. El hecho que no se incorpore el navegador Internet Explorer obedece a que éste no tiene, desde 2001, soporte para Netscape Plugin Application Programming Interface (NPAPI). Desde ese año, todas las extensiones para Internet Explorer debieron ser basadas en ActiveX. Los demás navegadores tienen soporte para NPAPI.
La publicación Golem.de ha publicado un vídeo en Youtube , que muestra algunos ejemplos de lo que es posible hacer al tener instalado Native Client.
Fuentes: Blog de Native Client y Golem.
Extraído de Diario TI
[ 12/12/2008 - 08:06 CET ]
Google está desarrollando una nueva extensión que permitirá acceso directo a la CPU del usuario, haciendo posible un rendimiento máximo en las aplicaciones web.

Google es una compañía que ha invertido considerable trabajo y recursos en el desarrollo de aplicaciones basadas en la web. Tanto así que la compañía está desarrollando su propio navegador, Chrome, que con su sencillo interfaz elimina elementos distractores cuando los usuarios están más bien ocupados en los contenidos presentados por las aplicaciones web ejecutadas en el propio navegador.
Chrome incorpora el motor Javascript V8, que proporciona un desempeño en Javascript considerablemente mejor que la mayoría de los navegadores existentes. Sin embargo, todo indica que Google estima que Javascript no está, en sí, en condiciones de entregar el rendimiento que de muchas formas es necesario para que una aplicación web resulte en la misma experiencia para el usuario que una aplicación ejecutada localmente en el PC.
Una solución para lo anterior es traspasar determinadas tareas a una de las citadas extensiones, pero Google no acostumbra basar sus soluciones en tecnologías controladas por los competidores.
Por tal razón, Google está desarrollando su propia extensión para el navegador. Esta sería "neutral"; es decir, funcionaría con todos los navegadores, y sería compatible con todas las versiones modernas, x86, de Windows, Macintosh y Linux. La empresa desarrolla además soporte para otras arquitecturas de procesadores, como por ejemplo ARM y PPC, lo que abre la posibilidad de soporte para teléfonos móviles y consolas de juegos, entre otras cosas.
La finalidad elemental de la futura extensión, denominada Native Client (NaCl), sería dar a las aplicaciones web mucho mejor acceso a la capacidad de cálculo del procesador.
En un comentario en su blog, Brad Chen, del grupo Native Client, de Google, plantea el ejemplo de un sitio para el intercambio y edición de fotografías, que permite al usuario editar las fotos directamente en el navegador, sin abandonar sitio web. Esto puede ser conseguido actualmente, por ejemplo, usando una combinación de JavaScript y ejecución del servicio en el servidor. Esto requiere, sin embargo, el flujo de grandes volúmenes de datos entre el navegador y el servidor, lo que puede ocasionar grandes esperas, incluso cuando el usuario sólo decide hacer pequeños cambios a sus imágenes.
Otras posibilidades involucran el uso del gráfica 3D.
"La posibilidad de poder ejecutar código específico para sistemas en el PC del usuario permite realizar el procesamiento de las imágenes en la propia CPU del PC del usuario, lo que resulta en una aplicación mucho más ágil, al reducirse fuertemente la transmisión de datos y con ello los retrasos", escribe Chen.
A juicio de Chen, uno de los principales desafíos es la seguridad. "Para contribuir a proteger a los usuarios de malware, conservando la movilidad, hemos definido estrictas reglas para los módulos aceptados", escribe Chen. Entre otras cosas, los módulos deberán ser elaborados según una serie de criterios estructurales que hacen posible convertirlos en instrucciones. Asimismo, no estará permitido que los módulos contengan determinadas secuencias de instrucciones.
"Este marco estructural apunta a permitir a nuestro runtime detectar y evitar la ejecución de propagación de código potencialmente maligno. Entendemos que es un gran desafío hacer que esta tecnología sea segura y precisamente por esa razón la convertiremos en código abierto en una etapa temprana", indica Chen.
"A nuestro juicio, la evaluación y los comentarios de la comunidad de desarrolladores, sumada al análisis público de la herramienta, contribuyen considerablemente a mejorar la calidad y seguridad de tecnologías de este tipo". En ésta página, Google pública una versión de prueba de Native Client. La instalación es compleja e indudablemente no está adaptadas a usuarios finales, solo a expertos.
Versiones de pruebas están disponibles para Windows, Mac y Linux, y para los navegadores Firefox, Safari, Opera y Chrome. El hecho que no se incorpore el navegador Internet Explorer obedece a que éste no tiene, desde 2001, soporte para Netscape Plugin Application Programming Interface (NPAPI). Desde ese año, todas las extensiones para Internet Explorer debieron ser basadas en ActiveX. Los demás navegadores tienen soporte para NPAPI.
La publicación Golem.de ha publicado un vídeo en Youtube , que muestra algunos ejemplos de lo que es posible hacer al tener instalado Native Client.
Fuentes: Blog de Native Client y Golem.
Extraído de Diario TI
miércoles, 10 de diciembre de 2008
Nuevo récord mundial en velocidad de transferencia de datos
Un equipo internacional consiguió 114 Gbps durante la reciente Conferencia SuperComputing 2008
Un equipo de físicos, científicos informáticos y expertos en ingeniería de redes ha batido un nuevo record de velocidad en la tranferencia de grandes cantidades de datos entre sistemas de almacenamiento, alcanzando los 114 gigabits por segundo. El equipo, que hizo uso de redes de alta capacidad y herramientas y aplicaciones de última generación, representa a un amplio conjunto de instituciones científicas y tecnológicas conducidas por el Instituto de Tecnología de Californía (CALTECH), y entre las que se cuenta la Organización Europea para la Investigación Nuclear (CERN). Por César Gutiérrez.
114 gigabits por segundo (Gbps) es el nuevo record de transferencia de datos entre sistemas de almacenamiento establecido por un equipo internacional de físicos, científicos informáticos e ingenieros de redes conducidos por el CALTECH (California Institute of Technology). Fue el pico alcanzado sobre un flujo de datos sostenido en más de 110 Gbps entre clusters de servidores durante la reciente conferencia SuperComputing 2008, que ha tenido lugar en Austin, Texas.
A este lado del Atlántico, el Gran Colisionador de Hadrones (LHC) de la Organización Europea para la Investigación Nuclear (CERN), con el que se pretende confirmar experimentalmente el modelo estándar de la física una vez que consiga detectar el bosón de Higgs, “la partícula de Dios”, requiere un sistema un sistema de telecomunicaciones acorde a tan descomunal y meritoria ambición. El CALTECH y sus socios parecen estar a la altura de los requerimientos y dispuestos a dar respuesta a los mismos.
El corazón de la red
Para explotar a fondo la potencial riqueza de estos y otros futuros logros del LHC se ha desarrollado un sistema grid a escala global que hace coincidir, según el CALTECH, el poder computacional y la capacidad de almacenamiento de 11 principales centros Tier1 y 120 centros Tier2 situados en laboratorios y universidades de todo el mundo, “con objeto de procesar, distribuir y analizar volúmenes sin precedentes de datos, pasando de decenas a 1000 petabytes durante los próximos años”.
El corazón del sistema está tejido de redes de alta capacidad y aplicaciones de última generación lo hacen latir. En la demostracción de la Conferencia SuperComputing 2008 se utilizó, por ejemplo, Fast Data Transport (FDT), una aplicación Java desarrollada por el equipo del Caltech en estrecha colaboración con el equipo de de la Polytehnica bucharest, y que permite hacer fluir grandes conjuntos de archivos, que habitualmente se mueven en el orden de miles en aplicaciones de física de alta energía.
Otra de esas herramientas fue dCache, un proyecto que aporta un sistema de almacenamiento y recuperación de inmensas cantidades de datos, destribuidos en un gran número de nodos, utilizando un sistema virtual de archivo en árbol con una variedad de métodos de acceso estándar. El sistema proporciona entre otras cosas valiosos métodos de intercambio de datos con los sistemas de almacenamiento y gestión del espacio, así como recuperación tras fallos en los discos o en los nodos.
Tambien se hizo uso de Fast TCP, desarrollado por el profesor Steven Low del departamento de ciencias computacionales del CALTECH como una algoritmo alternativo de control de la congestión en TCP, y diseñado para transferencias de datos de alta velocidad a larga distancia, por ejemplo hacer cruzar el Atlántico a decenas de archivos de tamaño gigabyte.
Difusión científica
“Compartiendo nuestros métodos y herramientas con científicos de diversos campos, esperamos que la comunidad de investigación esté bien posicionada para dar a conocer sus descubrimientos, tomando gran ventaja de las redes actuales, así commo de las redes de próxima generación, de mucha mayor capacidad, tan pronto como éstas estén disponibles”, ha declarado Harvey Newman, profesor de física del CALTECH y presidente del grupo de Física de Alta Energía, según lo recogido en un reciente artículo de Physorg.com.
Newman añadió: “En particular, esperamos que estos desarrollos proporcionen a los físicos y jóvenes estudiantes de todo el mundo la oportunidad de participar directamente en el programa del LHC, y potencialmente hacer importantes descubrimientos.”
Por su parte, David Foster, director de Comunicaciones y Redes en el CERN, dijo que el uso eficiente de redes de alta velocidad para transferir grandes paquetes de datos es un componente esencial del grid computacional del LHC, una infraestructura que permitirá difundir las misiones y resultados de sus científicos.
Extensión mundial
Entre los socios del CALTECH y su Centro para la Investigación Computacional Avanzada (CACR) se cuentan entre otros, y además del CERN, la Universidad de Michigan, la Universidad Nacional de Ciencias y Tecnología (NUST), el Fermmi National Accelerator Laboratory (Fermilab), la Universidad Estatal de Río de Janeiro (UERJ) y la Universidad Estatal de Sao Paulo, además de prestigiosas organizaciones como Internet2 y organismos institucionales como la Fundación Nacional de Ciencias, creada por el Congreso en 1950.
Estos y otros colaboradores cuya lista puede consultarse en la página del CALTECH, han demostrado con sus inmensos y habituales flujos continentales y transoceánicos de datos, y con este nuevo récord de velocidad de transferencia, que la comunidad científica y tecnológica está preparada para explotar en profundidad la próxima generación de redes, y que –en palabras de Richard Cavanaughh, de la Universidad de Illinois y coordinador del proyecto UltraLigh– “la visión de un Grid dinámico de extensión mundial que dé soporte a muchos terabytes y más amplias transacciones de datos, es practicable”.
Miércoles 10 Diciembre 2008
César Gutiérrez
Extraído de Tendencias 21
Un equipo de físicos, científicos informáticos y expertos en ingeniería de redes ha batido un nuevo record de velocidad en la tranferencia de grandes cantidades de datos entre sistemas de almacenamiento, alcanzando los 114 gigabits por segundo. El equipo, que hizo uso de redes de alta capacidad y herramientas y aplicaciones de última generación, representa a un amplio conjunto de instituciones científicas y tecnológicas conducidas por el Instituto de Tecnología de Californía (CALTECH), y entre las que se cuenta la Organización Europea para la Investigación Nuclear (CERN). Por César Gutiérrez.

A este lado del Atlántico, el Gran Colisionador de Hadrones (LHC) de la Organización Europea para la Investigación Nuclear (CERN), con el que se pretende confirmar experimentalmente el modelo estándar de la física una vez que consiga detectar el bosón de Higgs, “la partícula de Dios”, requiere un sistema un sistema de telecomunicaciones acorde a tan descomunal y meritoria ambición. El CALTECH y sus socios parecen estar a la altura de los requerimientos y dispuestos a dar respuesta a los mismos.
El corazón de la red
Para explotar a fondo la potencial riqueza de estos y otros futuros logros del LHC se ha desarrollado un sistema grid a escala global que hace coincidir, según el CALTECH, el poder computacional y la capacidad de almacenamiento de 11 principales centros Tier1 y 120 centros Tier2 situados en laboratorios y universidades de todo el mundo, “con objeto de procesar, distribuir y analizar volúmenes sin precedentes de datos, pasando de decenas a 1000 petabytes durante los próximos años”.
El corazón del sistema está tejido de redes de alta capacidad y aplicaciones de última generación lo hacen latir. En la demostracción de la Conferencia SuperComputing 2008 se utilizó, por ejemplo, Fast Data Transport (FDT), una aplicación Java desarrollada por el equipo del Caltech en estrecha colaboración con el equipo de de la Polytehnica bucharest, y que permite hacer fluir grandes conjuntos de archivos, que habitualmente se mueven en el orden de miles en aplicaciones de física de alta energía.
Otra de esas herramientas fue dCache, un proyecto que aporta un sistema de almacenamiento y recuperación de inmensas cantidades de datos, destribuidos en un gran número de nodos, utilizando un sistema virtual de archivo en árbol con una variedad de métodos de acceso estándar. El sistema proporciona entre otras cosas valiosos métodos de intercambio de datos con los sistemas de almacenamiento y gestión del espacio, así como recuperación tras fallos en los discos o en los nodos.
Tambien se hizo uso de Fast TCP, desarrollado por el profesor Steven Low del departamento de ciencias computacionales del CALTECH como una algoritmo alternativo de control de la congestión en TCP, y diseñado para transferencias de datos de alta velocidad a larga distancia, por ejemplo hacer cruzar el Atlántico a decenas de archivos de tamaño gigabyte.
Difusión científica
“Compartiendo nuestros métodos y herramientas con científicos de diversos campos, esperamos que la comunidad de investigación esté bien posicionada para dar a conocer sus descubrimientos, tomando gran ventaja de las redes actuales, así commo de las redes de próxima generación, de mucha mayor capacidad, tan pronto como éstas estén disponibles”, ha declarado Harvey Newman, profesor de física del CALTECH y presidente del grupo de Física de Alta Energía, según lo recogido en un reciente artículo de Physorg.com.
Newman añadió: “En particular, esperamos que estos desarrollos proporcionen a los físicos y jóvenes estudiantes de todo el mundo la oportunidad de participar directamente en el programa del LHC, y potencialmente hacer importantes descubrimientos.”
Por su parte, David Foster, director de Comunicaciones y Redes en el CERN, dijo que el uso eficiente de redes de alta velocidad para transferir grandes paquetes de datos es un componente esencial del grid computacional del LHC, una infraestructura que permitirá difundir las misiones y resultados de sus científicos.
Extensión mundial
Entre los socios del CALTECH y su Centro para la Investigación Computacional Avanzada (CACR) se cuentan entre otros, y además del CERN, la Universidad de Michigan, la Universidad Nacional de Ciencias y Tecnología (NUST), el Fermmi National Accelerator Laboratory (Fermilab), la Universidad Estatal de Río de Janeiro (UERJ) y la Universidad Estatal de Sao Paulo, además de prestigiosas organizaciones como Internet2 y organismos institucionales como la Fundación Nacional de Ciencias, creada por el Congreso en 1950.
Estos y otros colaboradores cuya lista puede consultarse en la página del CALTECH, han demostrado con sus inmensos y habituales flujos continentales y transoceánicos de datos, y con este nuevo récord de velocidad de transferencia, que la comunidad científica y tecnológica está preparada para explotar en profundidad la próxima generación de redes, y que –en palabras de Richard Cavanaughh, de la Universidad de Illinois y coordinador del proyecto UltraLigh– “la visión de un Grid dinámico de extensión mundial que dé soporte a muchos terabytes y más amplias transacciones de datos, es practicable”.
Miércoles 10 Diciembre 2008
César Gutiérrez
Extraído de Tendencias 21
sábado, 6 de diciembre de 2008
Una sencilla técnica consigue hacer creer a la gente que está en otro cuerpo
La manipulación de la perspectiva visual y multisensorial genera la ilusión de que el cuerpo ajeno es el propio La percepción del cuerpo como estancia de nuestra conciencia responde a la integración continua de señales multisensoriales y motoras en marcos de referencia ego-céntricos, explican científicos del Karolinska Insitutet de Suecia. Sin embargo, experimentos realizados han demostrado que estos marcos de referencia pueden variar si se usan “trampas” perceptivas. El resultado de diversos experimentos realizados en el KI ha sido soprendente: cualquier persona puede sentir que se encuentra en el cuerpo de otro, bien quieto, bien realizando un acto voluntario. La ilusión tendría aplicaciones en varios campos, sobre todo en el de la realidad virtual, donde aumentaría el realismo. Por Yaiza Martínez.
La idea de que un individuo cambie su cuerpo por el de otra persona ha estado en la imaginación de escritores y artistas durante décadas. Esta idea es reflejo de una pregunta fundamental: ¿por qué experimentamos la certeza de que nos encontramos dentro de nuestro organismo?
A
hora, un equipo de neurocientíficos cognitivos del Karolinska Institutet (KI) , una universidad médica de Suecia, ha conseguido que la gente perciba los cuerpos de maniquíes y de otras personas como si fueran el suyo propio.
Tal y como han explicado los investigadores en un artículo aparecido en la revista PlosOne Artículo PloSOne, la manipulación de la perspectiva visual, en combinación con la recepción de información multisensorial, fue suficiente para generar la ilusión de que un cuerpo ajeno podía ser el propio.
Compartiendo la visión
En un comunicado publicado por el KI, se explica que fueron realizados varios experimentos distintos.
En uno de ellos, se adaptaron dos cámaras a la cabeza de un maniquí de tienda. Estas cámaras estaban conectadas a dos pequeñas pantallas, que a su vez fueron situadas en frente de los ojos de una persona. De esta manera, dicha persona podía ver lo que “veía” el maniquí.
Cuando los ojos-cámara del muñeco y la cabeza de la persona eran dirigidos hacia abajo, el sujeto veía el cuerpo del maniquí en el mismo lugar en el que, normalmente, veía el suyo propio.
La ilusión del “cuerpo cambiado” se creó cuando los científicos tocaron el estómago de la persona y también el del maniquí con sendas varillas al mismo tiempo. Entonces, el sujeto pudo ver que el estómago del maniquí estaba siendo tocado, al tiempo que sentía (sin verlo) que también le estaban tocando su propio estómago.
Como resultado, el participante humano informó de haber tenido la sensación de que el cuerpo del maniquí era su propio cuerpo.
Cuestión de impresiones sensoriales
Según declaraciones del investigador Henrik Ehrsson, director del proyecto, estos resultados demuestran lo fácil que es cambiar la percepción cerebral de la identidad física.
Sólo con manipular las impresiones sensoriales, es posible hacer creer a una persona no sólo que está fuera de su propio cuerpo, sino también que está en otros cuerpos.
En otro de los experimento, las cámaras fueron colocadas en la cabeza de dos personas, en lugar de en un maniquí. Cuando ambos participantes (que tenían ante sus ojos las pantallas que reflejaban lo que la otra persona veía), se miraron el uno al otro para saludarse dándose la mano, en realidad lo que veían enfrente eran sus propios cuerpos.
Sin embargo, según los científicos, en este caso, estos voluntarios experimentaban la visión de sí mismos dándose la mano desde el exterior como si fuera otra persona la que se les acercaba.
En este caso, la impresión sensorial generó que sintieran que la persona que venía a saludarles era “otro cuerpo”, en lugar de verse a sí mismos.
No podemos identificarnos con objetos
En otro de los experimentos realizados, tal y como explica el artículo de PlosOne, se utilizaron un maniquí y un objeto rectangular para saber si el individuo podía “creer” que era cualquier forma física.
Los resultados demostraron que había grandes diferencias en el nivel de respuesta de los participantes entre una y otra forma. Es decir, que las personas sólo pueden experimentar como propios –aunque no lo sean- cuerpos similares al suyo o de apariencia humana, señalan los investigadores.
Pero, dentro de este límite, la ilusión funciona cuando las personas difieren mucho físicamente, e incluso cuando son de sexos opuestos.
Según los científicos, estos resultados demuestran que las personas podemos percibir el cuerpo de otros, o un cuerpo artificial, como propio. Y que esto ocurre tanto cuando los participantes no se mueven como cuando están ejecutando un movimiento voluntario (darse la mano).
Trampas perceptivas y aplicaciones
Las condiciones necesarias para que se produzca esta ilusión perceptiva serían un acople continuo entre la información visual y la información somatosensorial sobre el estado del cuerpo; el uso de un cuerpo “alternativo” de apariencia suficientemente humanoide y, por último, la adopción de la perspectiva visual de dicho cuerpo alternativo.
Los resultados obtenidos con estos experimentos suministrarían un nuevo método de traslación del centro de conciencia percibido por las personas de un cuerpo a otro, lo que tendría importantes aplicaciones científicas, industriales y clínicas, aseguran los investigadores.
En la psicología social, por ejemplo, podría servir como herramienta de investigación de los desórdenes de percepción de la propia imagen física. En la realidad virtual, por otra parte, las aplicaciones de este experimento podrían aumentar la capacidad de control del usuario, la sensación de realismo y el sentimiento de “presencia” dentro de dicha realidad alternativa.
En definitva, los experimentos han demostrado lo fácil que es “mover” el centro de conciencia del ser humano de un cuerpo a otro. La cuestión sobre la relación entre nuestra conciencia y el cuerpo es antigua y ha sido discutida desde siempre por filósofos, psicólogos y teólogos.
La integración continua de señales multisensoriales y motoras en marcos de referencia ego-céntricos mantendrían el co-alienamiento entre la experiencia del yo y el cuerpo físico. Pero este acoplamiento perfecto puede modificarse haciendo “trampas” perceptivas.
Extraído de Tendencias 21
La idea de que un individuo cambie su cuerpo por el de otra persona ha estado en la imaginación de escritores y artistas durante décadas. Esta idea es reflejo de una pregunta fundamental: ¿por qué experimentamos la certeza de que nos encontramos dentro de nuestro organismo?
A

Tal y como han explicado los investigadores en un artículo aparecido en la revista PlosOne Artículo PloSOne, la manipulación de la perspectiva visual, en combinación con la recepción de información multisensorial, fue suficiente para generar la ilusión de que un cuerpo ajeno podía ser el propio.
Compartiendo la visión
En un comunicado publicado por el KI, se explica que fueron realizados varios experimentos distintos.
En uno de ellos, se adaptaron dos cámaras a la cabeza de un maniquí de tienda. Estas cámaras estaban conectadas a dos pequeñas pantallas, que a su vez fueron situadas en frente de los ojos de una persona. De esta manera, dicha persona podía ver lo que “veía” el maniquí.
Cuando los ojos-cámara del muñeco y la cabeza de la persona eran dirigidos hacia abajo, el sujeto veía el cuerpo del maniquí en el mismo lugar en el que, normalmente, veía el suyo propio.
La ilusión del “cuerpo cambiado” se creó cuando los científicos tocaron el estómago de la persona y también el del maniquí con sendas varillas al mismo tiempo. Entonces, el sujeto pudo ver que el estómago del maniquí estaba siendo tocado, al tiempo que sentía (sin verlo) que también le estaban tocando su propio estómago.
Como resultado, el participante humano informó de haber tenido la sensación de que el cuerpo del maniquí era su propio cuerpo.
Cuestión de impresiones sensoriales
Según declaraciones del investigador Henrik Ehrsson, director del proyecto, estos resultados demuestran lo fácil que es cambiar la percepción cerebral de la identidad física.
Sólo con manipular las impresiones sensoriales, es posible hacer creer a una persona no sólo que está fuera de su propio cuerpo, sino también que está en otros cuerpos.
En otro de los experimento, las cámaras fueron colocadas en la cabeza de dos personas, en lugar de en un maniquí. Cuando ambos participantes (que tenían ante sus ojos las pantallas que reflejaban lo que la otra persona veía), se miraron el uno al otro para saludarse dándose la mano, en realidad lo que veían enfrente eran sus propios cuerpos.
Sin embargo, según los científicos, en este caso, estos voluntarios experimentaban la visión de sí mismos dándose la mano desde el exterior como si fuera otra persona la que se les acercaba.
En este caso, la impresión sensorial generó que sintieran que la persona que venía a saludarles era “otro cuerpo”, en lugar de verse a sí mismos.
No podemos identificarnos con objetos
En otro de los experimentos realizados, tal y como explica el artículo de PlosOne, se utilizaron un maniquí y un objeto rectangular para saber si el individuo podía “creer” que era cualquier forma física.
Los resultados demostraron que había grandes diferencias en el nivel de respuesta de los participantes entre una y otra forma. Es decir, que las personas sólo pueden experimentar como propios –aunque no lo sean- cuerpos similares al suyo o de apariencia humana, señalan los investigadores.
Pero, dentro de este límite, la ilusión funciona cuando las personas difieren mucho físicamente, e incluso cuando son de sexos opuestos.
Según los científicos, estos resultados demuestran que las personas podemos percibir el cuerpo de otros, o un cuerpo artificial, como propio. Y que esto ocurre tanto cuando los participantes no se mueven como cuando están ejecutando un movimiento voluntario (darse la mano).
Trampas perceptivas y aplicaciones
Las condiciones necesarias para que se produzca esta ilusión perceptiva serían un acople continuo entre la información visual y la información somatosensorial sobre el estado del cuerpo; el uso de un cuerpo “alternativo” de apariencia suficientemente humanoide y, por último, la adopción de la perspectiva visual de dicho cuerpo alternativo.

En la psicología social, por ejemplo, podría servir como herramienta de investigación de los desórdenes de percepción de la propia imagen física. En la realidad virtual, por otra parte, las aplicaciones de este experimento podrían aumentar la capacidad de control del usuario, la sensación de realismo y el sentimiento de “presencia” dentro de dicha realidad alternativa.
En definitva, los experimentos han demostrado lo fácil que es “mover” el centro de conciencia del ser humano de un cuerpo a otro. La cuestión sobre la relación entre nuestra conciencia y el cuerpo es antigua y ha sido discutida desde siempre por filósofos, psicólogos y teólogos.
La integración continua de señales multisensoriales y motoras en marcos de referencia ego-céntricos mantendrían el co-alienamiento entre la experiencia del yo y el cuerpo físico. Pero este acoplamiento perfecto puede modificarse haciendo “trampas” perceptivas.
Extraído de Tendencias 21
Una ciudad china 'destierra' a Windows para instalar Linux en sus ordenadores
Actualizado jueves 04/12/2008 11:27 (CET)
EFE
PEKÍN.- Una ciudad del sur de China está obligando a todos los dueños de los cibercafés locales a sustituir los sistemas operativos -muchos de ellos Windows, de Microsoft- por otro llamado 'Linux Bandera Roja' y fabricado en el país asiático.
Según informó un diario de esa ciudad, el 'Jiangnan Metropoli News', desde hace dos años el gobierno de la ciudad está forzando la instalación en más de 600 locales de Internet de este sistema operativo, muy similar en aspecto al Windows XP, pese a las reticencias de los dueños de los cibercafés.
El 'Linux Bandera Roja' fue desarrollado desde 1999 por la Academia China de Ciencias, el principal organismo de investigación estatal del país asiático, y aunque en teoría su instalación en los ordenadores es gratuita, el gobierno local está cobrando a los cibercafés unos 5.000 yuanes (unos 720 dólares o 570 euros).
Según las autoridades, la medida sirve para acabar con el uso de copias 'piratas' de Microsoft en los establecimientos públicos, pero los dueños de los cibercafés se quejaron a la prensa de que algunos de ellos usaban una versión legal de Windows y aún con todo se les obligó a sustituirla por el Linux chino.
La medida llega en un momento de mala relación entre Microsoft y los internautas chinos, ya que la empresa de Bill Gates, en un intento de combatir la 'piratería' en el país asiático, ha iniciado una campaña en China que ha alterado el funcionamiento de millones de ordenadores nacionales que tenían copia "pirata" del programa Windows.
Ante esta campaña, los internautas chinos han acusado a Microsoft de entrar en la intimidad de sus ordenadores personales y cambiar sus configuraciones, a través de la instalación de un programa que recuerda continuamente a los usuarios chinos que han de cambiar su versión 'pirata' de Windows por una con licencia.
El "destierro" de Windows en Nanchang no es la única medida ordenada a los cibercafés chinos que ha levantado ampollas en el país asiático, donde los usuarios de Internet sufren las molestias del control policial de páginas web y la censura.
Recientemente, la instalación de cámaras y escáneres para la identificación de usuarios en muchos cibercafés de todo el país ha generado igualmente malestar entre los clientes de esos locales, así como de sus dueños, que han tenido que gastar una alta suma de dinero en instalar estas tecnologías por orden gubernamental.
Extraído de El Mundo
EFE
PEKÍN.- Una ciudad del sur de China está obligando a todos los dueños de los cibercafés locales a sustituir los sistemas operativos -muchos de ellos Windows, de Microsoft- por otro llamado 'Linux Bandera Roja' y fabricado en el país asiático.

El 'Linux Bandera Roja' fue desarrollado desde 1999 por la Academia China de Ciencias, el principal organismo de investigación estatal del país asiático, y aunque en teoría su instalación en los ordenadores es gratuita, el gobierno local está cobrando a los cibercafés unos 5.000 yuanes (unos 720 dólares o 570 euros).
Según las autoridades, la medida sirve para acabar con el uso de copias 'piratas' de Microsoft en los establecimientos públicos, pero los dueños de los cibercafés se quejaron a la prensa de que algunos de ellos usaban una versión legal de Windows y aún con todo se les obligó a sustituirla por el Linux chino.

Ante esta campaña, los internautas chinos han acusado a Microsoft de entrar en la intimidad de sus ordenadores personales y cambiar sus configuraciones, a través de la instalación de un programa que recuerda continuamente a los usuarios chinos que han de cambiar su versión 'pirata' de Windows por una con licencia.
El "destierro" de Windows en Nanchang no es la única medida ordenada a los cibercafés chinos que ha levantado ampollas en el país asiático, donde los usuarios de Internet sufren las molestias del control policial de páginas web y la censura.

Extraído de El Mundo
Los 10 juegos más pirateados de 2008
por : Jesús Maturana: 06 Dic 2008, 17:00
Desde TorrentFreak nos llega un ránking de los 10 juegos que más veces se han descargado a través de BitTorrent este año, y el primer lugar se lo lleva Spore de Electronic Arts, aún teniendo en cuenta que salió al mercado en septiembre de este año lo que significa que ha habido más descargas por día que de ningún otro.
Tan sólo 10 días después del lanzamiento de Spore, el juego ya se había descargado por 500.000 personas. Hasta final del primer mes de vida ya se habían alcanzado el millón de descargas a través de BitTorrent. Según las estimaciones de TorrentFreak las descargas desde principios de septiembre de Spore ascienden hasta 1,7 millones lo que es un récord para un juego.
A continuación os dejamos la lista de los 10 juegos de PC más descargados a través de BitTorrent durante 2008, sin contar diciembre, claro está. El segundo lugar lo ocupa el incombustible The Sims 2 y el puesto correspondiente al bronce, Assassins Creed.

Extraído de The Enquirer
Tan sólo 10 días después del lanzamiento de Spore, el juego ya se había descargado por 500.000 personas. Hasta final del primer mes de vida ya se habían alcanzado el millón de descargas a través de BitTorrent. Según las estimaciones de TorrentFreak las descargas desde principios de septiembre de Spore ascienden hasta 1,7 millones lo que es un récord para un juego.
A continuación os dejamos la lista de los 10 juegos de PC más descargados a través de BitTorrent durante 2008, sin contar diciembre, claro está. El segundo lugar lo ocupa el incombustible The Sims 2 y el puesto correspondiente al bronce, Assassins Creed.
Extraído de The Enquirer
lunes, 17 de noviembre de 2008
Cuidar nuestro planeta es cuidar nuestra salud
Más de 13 millones de personas mueren cada año en el mundo por causas evitables relacionadas con el medio ambiente. Los datos extraídos de un Informe de la Organización Mundial de la Salud (OMS) atestiguan la relación cada vez más recíproca entre el medio ambiente del planeta y la salud de los humanos.
Según María Neira, directora del Departamento de Salud Pública y Medio Ambiente de la OMS, casi la mitad de las defunciones por malaria y el 94 % de los casos de muerte por enfermedades diarreicas podrían evitarse promoviendo políticas favorables al cuidado del entorno natural que nos rodea. La contaminación por mercurio, la polución del aire, la exposición a los pesticidas o el consumo de agua con altos niveles de elementos contaminantes son los principales agentes causantes de daños en la salud de los hombres. La diarrea es provocada por la insalubridad del agua, las infecciones de las vías respiratorias inferiores son producidas por la contaminación del aire, y la neumonía obstructiva crónica se daría en menor medida en ambientes libres de polvo o de humo de cigarrillos o de gases creados en la combustión de combustibles fósiles.
“Sabíamos que el medio ambiente influye muchísimo en la salud, pero nunca habíamos tenido estimaciones tan precisas como éstas, que nos ayudarán a demostrar que las inversiones racionales destinadas a crear un entorno favorable pueden ser una estrategia eficaz para mejorar la salud y lograr un desarrollo sostenible”, afirma el Dr. Anders Nordström, Director General interino de la OMS.
Los niños componen el colectivo más vulnerable a las enfermedades provocadas por causas medioambientales. El rápido crecimiento de los humanos en sus primeros años de vida hace que su respiración sea más acelerada y que ingieran una mayor cantidad de alimentos y de agua, aumentándose así el riesgo de padecer dolencias asociadas al medio ambiente. El 33% de las enfermedades en niños menores de 5 años son causadas por los agentes citados.
Las personas con menos recursos económicos también están más expuestas a los riesgos medioambientales. Casi 26 millones de latinoamericanos que viven en Estados Unidos habitan en áreas que violan los estándares de calidad del aire exigidos. Los abastos de agua potable en Ajo, Albuquerque y Arizona, con una elevada población latinoamericana, poseen elevados niveles de arsénico. El 12 % de los habitantes de las zonas limítrofes entre México y Estados Unidos no tienen acceso al agua potable.
Muchos inmigrantes latinoamericanos en Estados Unidos se dedican a la agricultura. Trabajar en el campo ya no supone ninguna ventaja medioambiental para estas personas, ya que se ven expuestas a los tóxicos pesticidas utilizados en la agricultura extensiva.
Muchos de los peligros medioambientales, como las pequeñas partículas contaminantes en el agua o en el aire son invisibles para el ojo humano. La correcta señalización y alerta a la población de estos riesgos por parte de las autoridades sería el primer paso. No verter residuos tóxicos a las aguas ni al aire, o depurarlos cuando sea preciso podría evitar muchas muertes.
Invertir en medio ambiente es invertir en salud para todos. Por ello, promover un almacenamiento limpio del agua destinada al consumo humano, el uso de combustibles menos contaminantes y la gestión más prudente de las sustancias tóxicas son unas vacunas imprescindibles y eficaces que alargarían y mejorarían la vida del planeta y de los seres que lo habitan.
Fuente: Vinculando.org
opinion pesonal: Yo creo que esto es algo serio...que de verdad esta ocurriendo...debemos cuidar nuestro planeta....y que va a pasar dentro de 20, 30 o 40 años...se imaginan la calidad de vida?....la vida va a ser un caos; el aire contaminado, mucha sequia, el excesivo calor, las fuertes tormentas, falta de agua, energia no muy buena! en esas condiciones de vida no creo que sea divertido vivir. Debemos ayudar en lo que podamos para cambiar y mejorar nuestro planeta, porque es algo valioso que tenemos, y es en ella donde vivimos! Tratemos de mejorar! Aprovechemos el tiempo que nos queda para cambiar!
Según María Neira, directora del Departamento de Salud Pública y Medio Ambiente de la OMS, casi la mitad de las defunciones por malaria y el 94 % de los casos de muerte por enfermedades diarreicas podrían evitarse promoviendo políticas favorables al cuidado del entorno natural que nos rodea. La contaminación por mercurio, la polución del aire, la exposición a los pesticidas o el consumo de agua con altos niveles de elementos contaminantes son los principales agentes causantes de daños en la salud de los hombres. La diarrea es provocada por la insalubridad del agua, las infecciones de las vías respiratorias inferiores son producidas por la contaminación del aire, y la neumonía obstructiva crónica se daría en menor medida en ambientes libres de polvo o de humo de cigarrillos o de gases creados en la combustión de combustibles fósiles.
“Sabíamos que el medio ambiente influye muchísimo en la salud, pero nunca habíamos tenido estimaciones tan precisas como éstas, que nos ayudarán a demostrar que las inversiones racionales destinadas a crear un entorno favorable pueden ser una estrategia eficaz para mejorar la salud y lograr un desarrollo sostenible”, afirma el Dr. Anders Nordström, Director General interino de la OMS.
Los niños componen el colectivo más vulnerable a las enfermedades provocadas por causas medioambientales. El rápido crecimiento de los humanos en sus primeros años de vida hace que su respiración sea más acelerada y que ingieran una mayor cantidad de alimentos y de agua, aumentándose así el riesgo de padecer dolencias asociadas al medio ambiente. El 33% de las enfermedades en niños menores de 5 años son causadas por los agentes citados.
Las personas con menos recursos económicos también están más expuestas a los riesgos medioambientales. Casi 26 millones de latinoamericanos que viven en Estados Unidos habitan en áreas que violan los estándares de calidad del aire exigidos. Los abastos de agua potable en Ajo, Albuquerque y Arizona, con una elevada población latinoamericana, poseen elevados niveles de arsénico. El 12 % de los habitantes de las zonas limítrofes entre México y Estados Unidos no tienen acceso al agua potable.
Muchos inmigrantes latinoamericanos en Estados Unidos se dedican a la agricultura. Trabajar en el campo ya no supone ninguna ventaja medioambiental para estas personas, ya que se ven expuestas a los tóxicos pesticidas utilizados en la agricultura extensiva.
Muchos de los peligros medioambientales, como las pequeñas partículas contaminantes en el agua o en el aire son invisibles para el ojo humano. La correcta señalización y alerta a la población de estos riesgos por parte de las autoridades sería el primer paso. No verter residuos tóxicos a las aguas ni al aire, o depurarlos cuando sea preciso podría evitar muchas muertes.
Invertir en medio ambiente es invertir en salud para todos. Por ello, promover un almacenamiento limpio del agua destinada al consumo humano, el uso de combustibles menos contaminantes y la gestión más prudente de las sustancias tóxicas son unas vacunas imprescindibles y eficaces que alargarían y mejorarían la vida del planeta y de los seres que lo habitan.
Fuente: Vinculando.org
opinion pesonal: Yo creo que esto es algo serio...que de verdad esta ocurriendo...debemos cuidar nuestro planeta....y que va a pasar dentro de 20, 30 o 40 años...se imaginan la calidad de vida?....la vida va a ser un caos; el aire contaminado, mucha sequia, el excesivo calor, las fuertes tormentas, falta de agua, energia no muy buena! en esas condiciones de vida no creo que sea divertido vivir. Debemos ayudar en lo que podamos para cambiar y mejorar nuestro planeta, porque es algo valioso que tenemos, y es en ella donde vivimos! Tratemos de mejorar! Aprovechemos el tiempo que nos queda para cambiar!
Corazón artificial para implantaciones
El primer corazón protésico que late como uno vivo podría ser implantado en pacientes en tres años; este avance podría cambiar las posibilidades de supervivencia de las personas que han sufrido infartos graves.
El especialista del corazón Alain Carpentier, señaló que su prototipo de corazón artificial, que tiene la misma forma que el órgano humano y bombea la sangre al mismo ritmo, estaría listo para los ensayos clínicos y la producción comercial en el 2011.
El dispositivo, que utiliza sensores electrónicos para controlar el ritmo cardíaco y el flujo sanguíneo, ha sido desarrollado con la ayuda del experto en ingeniería del grupo aeroespacial europeo Eads.
El corazón artificial utiliza tejido animal químicamente mejorado para reducir el riesgo de rechazo por parte del sistema inmunológico del paciente, principal obstáculo en los transplantes de corazones artificiales.
"Estamos pasando de la pura investigación a las aplicaciones clínicas. Después de 15 años de trabajo, se lo pasamos a la industria para que produzcan un corazón artificial que pueda utilizar un hombre", señaló Carpentier durante la presentación del dispositivo.
"Si le muestras la gráfica a un cirujano cardiovascular dirá que es de un corazón humano, pero no lo es; es la prótesis". Las pruebas realizadas con simulaciones por ordenador y terneras y ovejas no ha habido complicaciones, añadió, lo que allana el camino para la realización de ensayos clínicos.
El dispositivo, que funcionará con una batería, cuenta con sensores que automáticamente ajustan el ritmo cardíaco a la actividad del paciente, como caminar o descansar, un problema recurrente en los ensayos con corazones protésicos.
Si tiene éxito, el dispositivo de Carpentier ayudará a los pacientes que han sufrido infartos graves, que han tenido una insuficiencia cardíaca en fase tardía o para los que no hay un órgano disponible.
Varios equipos de todo el mundo están envueltos en una carrera por desarrollar el corazón artificial perfecto, en un intento por salvar la diferencia que hay entre la demanda de trasplantes de corazón y el número de donantes, que se estima que es de unos 20.000 cada año.
Dos prototipos rivales, el AbioCor y el MagScrew Total Artificial Heart, han sido desarrollados en los EEUU, pero solo actúan como "puente" hasta que se encuentra un donante. El equipo de Carpentier ha gastado alrededor de 55 millones de euros en el prototipo y suponiendo que el organismo regulador médico francés apruebe los ensayos clínicos y el equipo pueda encontrar los aproximadamente 100 millones de euros necesarios para su producción, el dispositivo podría estar disponible para su uso en pacientes en el 2013.
Fuente: CLICK AQUI
El especialista del corazón Alain Carpentier, señaló que su prototipo de corazón artificial, que tiene la misma forma que el órgano humano y bombea la sangre al mismo ritmo, estaría listo para los ensayos clínicos y la producción comercial en el 2011.
El dispositivo, que utiliza sensores electrónicos para controlar el ritmo cardíaco y el flujo sanguíneo, ha sido desarrollado con la ayuda del experto en ingeniería del grupo aeroespacial europeo Eads.
El corazón artificial utiliza tejido animal químicamente mejorado para reducir el riesgo de rechazo por parte del sistema inmunológico del paciente, principal obstáculo en los transplantes de corazones artificiales.
"Estamos pasando de la pura investigación a las aplicaciones clínicas. Después de 15 años de trabajo, se lo pasamos a la industria para que produzcan un corazón artificial que pueda utilizar un hombre", señaló Carpentier durante la presentación del dispositivo.
"Si le muestras la gráfica a un cirujano cardiovascular dirá que es de un corazón humano, pero no lo es; es la prótesis". Las pruebas realizadas con simulaciones por ordenador y terneras y ovejas no ha habido complicaciones, añadió, lo que allana el camino para la realización de ensayos clínicos.
El dispositivo, que funcionará con una batería, cuenta con sensores que automáticamente ajustan el ritmo cardíaco a la actividad del paciente, como caminar o descansar, un problema recurrente en los ensayos con corazones protésicos.
Si tiene éxito, el dispositivo de Carpentier ayudará a los pacientes que han sufrido infartos graves, que han tenido una insuficiencia cardíaca en fase tardía o para los que no hay un órgano disponible.
Varios equipos de todo el mundo están envueltos en una carrera por desarrollar el corazón artificial perfecto, en un intento por salvar la diferencia que hay entre la demanda de trasplantes de corazón y el número de donantes, que se estima que es de unos 20.000 cada año.
Dos prototipos rivales, el AbioCor y el MagScrew Total Artificial Heart, han sido desarrollados en los EEUU, pero solo actúan como "puente" hasta que se encuentra un donante. El equipo de Carpentier ha gastado alrededor de 55 millones de euros en el prototipo y suponiendo que el organismo regulador médico francés apruebe los ensayos clínicos y el equipo pueda encontrar los aproximadamente 100 millones de euros necesarios para su producción, el dispositivo podría estar disponible para su uso en pacientes en el 2013.
Fuente: CLICK AQUI
Previsiones 2009 para el sector tecnológico
La crisis afectará las inversiones en nuevas tecnologías
La firma de investigación IDC ha afirmado que la inversión en tecnología a nivel mundial se frenará considerablemente en el 2009 debido al revuelo financiero que ha desconcertado los mercados internacionales desde septiembre.
IDC espera ahora que la inversión en tecnologías de la información a nivel mundial aumente un 2,6% en 2009, por debajo de su anterior previsión de un crecimiento del 5,9%. En los EEUU, se espera que la inversión aumente tan solo un 0,9%, muy por debajo de la previsión del 4,2% realizada por IDC en agosto.
Hay ya claros signos de que la inversión en tecnología se está debilitando. La semana pasada, Cisco Systems, la primera de las principales compañías tecnológicas en informar de sus ingresos incluyendo el mes de octubre, advirtió que los pedidos de su sistema de conexión de redes cayeron bruscamente durante ese mes. El líder tecnológico espera que caigan las ventas en el trimestre actual.
A pesar de la desaceleración económica, IDC espera que la inversión en servicios y productos tecnológicos continúe creciendo el próximo año, solo que a un ritmo más lento.
Las tecnologías de la información, señaló el jefe de investigación de IDC, John Gantz, en un comunicado, "están en mejor posición que nunca para resistir el tirón a la baja de una desaceleración económica".
Gantz señaló que la tecnología está profundamente implicada en importantes operaciones de negocios y "es fundamental para lograr una mayor eficacia y un aumento de la productividad". El software y los servicios, que pueden ahorrar dinero a las compañías, experimentarán un fuerte crecimiento, mientras que se espera que la inversión en hardware disminuya en el 2009, excepto en lo referente al almacenamiento de datos.
Geográficamente, el crecimiento será más lento en los EEUU, Japón y Europa Occidental, donde rondará el 1% el próximo año. Los mercados emergentes de Europa Central y del Este, África, Latinoamérica y Oriente Medio continuarán experimentando lo que IDC ha denominado "crecimiento saludable", aunque a unos niveles notablemente inferiores a sus anteriores previsiones de dos dígitos.
IDC espera que la inversión tecnológica se "recupere totalmente" en el 2012, con unas tasas de crecimiento próximas al 6%. Aún así, la firma de investigación estima que el sector perderá más de 300.000 millones de dólares en ingresos debido a la caída de la inversión a lo largo de los próximos cuatro años.
Por negra que parezca la situación, el analista de IDC Stephen Minton señaló que, en realidad, en esta ocasión, la inversión en tecnología va mejor que en la crisis anterior, tras los ataques del 11S. La recesión de 2001 y 2002 se produjo tras una burbuja tecnológica caracterizada por un exceso de inversión de las empresas en productos tecnológicos.
En esta ocasión, en cambio, no existe tal burbuja, por lo que aunque las compañías estén reduciendo su inversión en tecnología como parte de unos recortes más amplios para hacer frente a la recesión, todavía tienden a considerar las inversiones en tecnología como una parte importante de su negocio, señaló Minton.
Fuente: Associated Press
La firma de investigación IDC ha afirmado que la inversión en tecnología a nivel mundial se frenará considerablemente en el 2009 debido al revuelo financiero que ha desconcertado los mercados internacionales desde septiembre.
IDC espera ahora que la inversión en tecnologías de la información a nivel mundial aumente un 2,6% en 2009, por debajo de su anterior previsión de un crecimiento del 5,9%. En los EEUU, se espera que la inversión aumente tan solo un 0,9%, muy por debajo de la previsión del 4,2% realizada por IDC en agosto.
Hay ya claros signos de que la inversión en tecnología se está debilitando. La semana pasada, Cisco Systems, la primera de las principales compañías tecnológicas en informar de sus ingresos incluyendo el mes de octubre, advirtió que los pedidos de su sistema de conexión de redes cayeron bruscamente durante ese mes. El líder tecnológico espera que caigan las ventas en el trimestre actual.
A pesar de la desaceleración económica, IDC espera que la inversión en servicios y productos tecnológicos continúe creciendo el próximo año, solo que a un ritmo más lento.
Las tecnologías de la información, señaló el jefe de investigación de IDC, John Gantz, en un comunicado, "están en mejor posición que nunca para resistir el tirón a la baja de una desaceleración económica".
Gantz señaló que la tecnología está profundamente implicada en importantes operaciones de negocios y "es fundamental para lograr una mayor eficacia y un aumento de la productividad". El software y los servicios, que pueden ahorrar dinero a las compañías, experimentarán un fuerte crecimiento, mientras que se espera que la inversión en hardware disminuya en el 2009, excepto en lo referente al almacenamiento de datos.
Geográficamente, el crecimiento será más lento en los EEUU, Japón y Europa Occidental, donde rondará el 1% el próximo año. Los mercados emergentes de Europa Central y del Este, África, Latinoamérica y Oriente Medio continuarán experimentando lo que IDC ha denominado "crecimiento saludable", aunque a unos niveles notablemente inferiores a sus anteriores previsiones de dos dígitos.
IDC espera que la inversión tecnológica se "recupere totalmente" en el 2012, con unas tasas de crecimiento próximas al 6%. Aún así, la firma de investigación estima que el sector perderá más de 300.000 millones de dólares en ingresos debido a la caída de la inversión a lo largo de los próximos cuatro años.
Por negra que parezca la situación, el analista de IDC Stephen Minton señaló que, en realidad, en esta ocasión, la inversión en tecnología va mejor que en la crisis anterior, tras los ataques del 11S. La recesión de 2001 y 2002 se produjo tras una burbuja tecnológica caracterizada por un exceso de inversión de las empresas en productos tecnológicos.
En esta ocasión, en cambio, no existe tal burbuja, por lo que aunque las compañías estén reduciendo su inversión en tecnología como parte de unos recortes más amplios para hacer frente a la recesión, todavía tienden a considerar las inversiones en tecnología como una parte importante de su negocio, señaló Minton.
Fuente: Associated Press
Carta de despedida de un usuario a su Windows
Querido Windows Professional Service Pack 2:
No quería decirtelo en persona, porque he pensado que podría ser demasiado complicado, y podría tomar mucho tiempo. Después de todo, hemos estado juntos durante mucho tiempo, casi cinco años hasta ahora. Yo sé, yo sé. Te conozco tan bien, conozco tu panel de control, los procedimientos de tu instalación [que he hecho tantas veces], incluso cuando te rayas y me muestras pantallas azules, qué puedo decir yo, tú me hiciste crecer.
Pero para ser honesto, las cosas han ido yendo cuesta abajo desde hace mucho tiempo. ¿Qué pasó con esa perfomance, con el rápido sistema operativo que instalé por primera vez? Ya sabes, el que corría Civ 4, Vice City, e incluso True Crimes sin problema? El que quemaba DVD’s, CD’s, el que compartía la música con mi X-Box sin problema? No sé. Parece que te has dejado mucho, siendo honestos. Te tomas más de 20 minutos en arrancar, corres Civ4 lentamente, diablos, incluso hasta te congelas ahora cuando intento ver un vídeo. ¿Qué pasó Windows? ¿Creo que te sentías tan confiado que pensabas que debía de conformarme sólo con eso?
Bueno, he estado engañandote. Te acuerdas, que cuando estaba en tercero de media, conocí una chica un poco desordenada, su nombre era Red Hat Linux. Nos reunimos en la última reunión de reencuentro, y yo he llegado a conocerla bastante bien. Estaba todo en su terminal, si sabes lo que eso significa . Bueno, me la llevé a casa, y hemos tenido unos tiempos duros, sin dormir realmente. Decidí que eso no era para mí, y yo volví contigo, porque yo sabía que me hacías falta. Pues bien, Red Hat tiene una prima sudafricana, y su nombre es Ubuntu … ella es una chica muy bella, también. Además ella tiene tres primas, Xubuntu, Ubuntu, Kubuntu, todas ellas muy sexys.
Bueno, supongo que esta carta es para comunicate de que ya hemos terminado. No pienso volver, de todos modos. Puedes tentarme con tus juegos, y todo el software que tienes, pero ya estubo bueno. Puedo llegar a conocer a Ubuntu, puedo aprender a trabajar en sus terminales. Su freeware. Su soporte online en Internet. Después de todo, ¿qué puedo decir?… ella es más sexy, más rápida y gratis. Y por el contrario tu eres caro, pesado, y casi, siempre paras enfermo con virus. Ya hemos terminado.
Yo sé, yo sé. Yo te he formateado y removido de mi disco duro antes, y luego te he llamado para suplicarte que vuelvas, y hemos tenido sexo enojados. Pero, ¿en qué estabas pensando? Me acordé de todos los malos momentos que tuvimos, y llame a Ubuntu y me entiende bien. Así de que he decidido irme antes de que vuelva a darme cuenta de que otra vez me has golpeado. Ella realmente ha instalado rápidamente, y ni siquiera necesita drivers ni nada. Trabajado bellamente. Por cierto, ¿y me permito recordarte que es gratis?
Así que Windows XP Professional Service Pack 2, me voy para aprender Ubuntu. Así que lo nuestro ya terminó, estuvimos un buen tiempo juntos, pero todo ese tiempo ha sido costoso, cargados de virus, de software muy pesado, que esto debe llegar a su fin, ¿verdad? Supongo que así es cómo tiene que ser.
Gracias por todos los buenos momentos! Nada como una BSOD cuando estoy tratando de ver un video en vivo sobre el debate en MSN o la CNN, o las clásicas colgadas cuando estoy en el medio de una partida de Civ4.
Pero me tengo que ir ahora. Es el momento de bajar un poco y ensuciarme con ubuntu, y si alguna vez realmente te extrañara te puedo recordar bebiendo una copa de vino [en la versión inglesa vino es wine, que es justamente el nombre del proyecto que permite correr aplicaciones Windows dentro de Linux.
No quería decirtelo en persona, porque he pensado que podría ser demasiado complicado, y podría tomar mucho tiempo. Después de todo, hemos estado juntos durante mucho tiempo, casi cinco años hasta ahora. Yo sé, yo sé. Te conozco tan bien, conozco tu panel de control, los procedimientos de tu instalación [que he hecho tantas veces], incluso cuando te rayas y me muestras pantallas azules, qué puedo decir yo, tú me hiciste crecer.
Pero para ser honesto, las cosas han ido yendo cuesta abajo desde hace mucho tiempo. ¿Qué pasó con esa perfomance, con el rápido sistema operativo que instalé por primera vez? Ya sabes, el que corría Civ 4, Vice City, e incluso True Crimes sin problema? El que quemaba DVD’s, CD’s, el que compartía la música con mi X-Box sin problema? No sé. Parece que te has dejado mucho, siendo honestos. Te tomas más de 20 minutos en arrancar, corres Civ4 lentamente, diablos, incluso hasta te congelas ahora cuando intento ver un vídeo. ¿Qué pasó Windows? ¿Creo que te sentías tan confiado que pensabas que debía de conformarme sólo con eso?
Bueno, he estado engañandote. Te acuerdas, que cuando estaba en tercero de media, conocí una chica un poco desordenada, su nombre era Red Hat Linux. Nos reunimos en la última reunión de reencuentro, y yo he llegado a conocerla bastante bien. Estaba todo en su terminal, si sabes lo que eso significa . Bueno, me la llevé a casa, y hemos tenido unos tiempos duros, sin dormir realmente. Decidí que eso no era para mí, y yo volví contigo, porque yo sabía que me hacías falta. Pues bien, Red Hat tiene una prima sudafricana, y su nombre es Ubuntu … ella es una chica muy bella, también. Además ella tiene tres primas, Xubuntu, Ubuntu, Kubuntu, todas ellas muy sexys.
Bueno, supongo que esta carta es para comunicate de que ya hemos terminado. No pienso volver, de todos modos. Puedes tentarme con tus juegos, y todo el software que tienes, pero ya estubo bueno. Puedo llegar a conocer a Ubuntu, puedo aprender a trabajar en sus terminales. Su freeware. Su soporte online en Internet. Después de todo, ¿qué puedo decir?… ella es más sexy, más rápida y gratis. Y por el contrario tu eres caro, pesado, y casi, siempre paras enfermo con virus. Ya hemos terminado.
Yo sé, yo sé. Yo te he formateado y removido de mi disco duro antes, y luego te he llamado para suplicarte que vuelvas, y hemos tenido sexo enojados. Pero, ¿en qué estabas pensando? Me acordé de todos los malos momentos que tuvimos, y llame a Ubuntu y me entiende bien. Así de que he decidido irme antes de que vuelva a darme cuenta de que otra vez me has golpeado. Ella realmente ha instalado rápidamente, y ni siquiera necesita drivers ni nada. Trabajado bellamente. Por cierto, ¿y me permito recordarte que es gratis?
Así que Windows XP Professional Service Pack 2, me voy para aprender Ubuntu. Así que lo nuestro ya terminó, estuvimos un buen tiempo juntos, pero todo ese tiempo ha sido costoso, cargados de virus, de software muy pesado, que esto debe llegar a su fin, ¿verdad? Supongo que así es cómo tiene que ser.
Gracias por todos los buenos momentos! Nada como una BSOD cuando estoy tratando de ver un video en vivo sobre el debate en MSN o la CNN, o las clásicas colgadas cuando estoy en el medio de una partida de Civ4.
Pero me tengo que ir ahora. Es el momento de bajar un poco y ensuciarme con ubuntu, y si alguna vez realmente te extrañara te puedo recordar bebiendo una copa de vino [en la versión inglesa vino es wine, que es justamente el nombre del proyecto que permite correr aplicaciones Windows dentro de Linux.
Conceptos básicos de criptografía
¿Qué es la criptografía?
La criptografía es la ciencia de usar las matemáticas para encriptar y desencriptar datos. Una vez que la información ha sido encriptada, puede ser almacenada en un medio inseguro o enviada a través de una red insegura (como Internet) y aún así permanecer secreta. Luego, los datos pueden desencriptarse a su formato original.
¿Qué es el proceso de encriptación y desencriptación?
La encriptación es el proceso en el cual los datos a proteger son traducidos a algo que parece aleatorio y que no tiene ningún significado (los datos encriptados o cifrados). La desencriptación es el proceso en el cual los datos encriptados son convertidos nuevamente a su forma original.
¿Qué es un algoritmo criptográfico?
Un algoritmo criptográfico, o cifrador, es una función matemática usada en los procesos de encriptación y desencriptación. Un algoritmo criptográfico trabaja en combinación con una llave (un número, palabra, frase, o contraseña) para encriptar y desencriptar datos. Para encriptar, el algoritmo combina matemáticamente la información a proteger con una llave provista. El resultado de este cálculo son los datos encriptados. Para desencriptar, el algoritmo hace un cálculo combinando los datos encriptados con una llave provista, siendo el resultado de esta combinación los datos desencriptados (exactamente igual a como estaban antes de ser encriptados si se usó la misma llave). Si la llave o los datos son modificados el algoritmo produce un resultado diferente. El objetivo de un algoritmo criptográfico es hacer tan difícil como sea posible desencriptar los datos sin utilizar la llave. Si se usa un algoritmo de encriptación realmente bueno, entonces no hay ninguna técnica significativamente mejor que intentar metódicamente con cada llave posible. Incluso para una llave de sólo 40 bits, esto significa 2ˆ40 (poco más de 1 trillón) de llaves posibles.
¿Qué diferencias hay entre los algoritmos simétricos y los asimétricos?
Los algoritmos simétricos encriptan y desencriptan con la misma llave. Las principales ventajas de los algoritmos simétricos son su seguridad y su velocidad. Los algoritmos asimétricos encriptan y desencriptan con diferentes llaves. Los datos se encriptan con una llave pública y se desencriptan con una privada, siendo ésta su principal ventaja. Los algoritmos asimétricos, también conocidos como algoritmos de llave pública, necesitan al menos una llave de 3.000 bits para alcanzar un nivel de seguridad similar al de uno simétrico de 128 bits. Y son increíblemente lentos, tanto que no pueden ser utilizados para encriptar grandes cantidades de información. Los algoritmos simétricos son aproximadamente 1.000 veces más rápidos que los asimétricos.
¿Qué tan seguro es CryptoForge?
CryptoForge le proporciona cuatro robustos algoritmos de encriptación para proteger sus datos:
Blowfish (llave de 448 bits) es un algoritmo de encriptación rápido y fuerte. Su creador es Bruce Schneier, uno de los más prestigiosos criptógrafos en el mundo.
Rijndael (llave de 256 bits) es un algoritmo seguro y eficiente. Sus creadores son Joan Daemen y Vincent Rijmen (Bélgica). Ha sido elegido como el nuevo Estándar Avanzado de Encriptación (AES) por el Instituto Nacional de Estándares y Tecnología (NIST) de los EEUU.
Triple DES (llave de 168 bits) es un algoritmo desarrollado por el gobierno de EEUU y ha sido evaluado durante años sin descubrírsele debilidades. Es una configuración de encriptación en la cual el algoritmo DES es usado tres veces con tres llaves diferentes.
Gost (llave de 256 bits) es un algoritmo de Rusia y podría ser considerado el análogo ruso al DES. Tiene un diseño conservador y no ha podido ser vulnerado, a pesar de haber sido uno de los más estudiados, durante años, por los mejores expertos en criptoanálisis.
El único método para vulnerar cualquiera de estos algoritmos, conocido hasta el momento, es intentando con todas las combinaciones de llaves posibles. Con mil millones de ordenadores capaces de probar mil millones de llaves por segundo cada uno, y empleando un algoritmo con llave de 168 bits, se necesitan 10*10ˆ24 años de trabajo para probar todas las llaves (para comparar, la edad del universo se estima en 10*10ˆ9 años). Además, CryptoForge implementa mecanismos contra modificaciones en su código. Cada vez que es ejecutado verifica los cifradores con los vectores de prueba que proveen sus diseñadores.
Los cuatro algoritmos implementados en CryptoForge son Cifradores de Bloque. Esto significa que encriptan los datos en bloques de bits, en vez de hacerlo de un bit por vez. Todos los algoritmos son utilizados en modo CBC (Cipher Block Chaining), donde los datos originales, antes de ser encriptados, son XOReados con el resultado del bloque cifrado anteriormente. Cuando se encripta el primer bloque, se utiliza un vector de inicialización de 128 bits generado aleatoriamente. El modo CBC asegura que aún si los datos originales contienen algunos bloques idénticos, cada uno será convertido en un bloque encriptado diferente.
La compresión incluida en CryptoForge refuerza la seguridad criptográfica aún más, porque reduce los patrones de datos en la información original, los cuales son explotados por las principales técnicas de criptoanálisis para intentar romper el cifrado.
Cuando usted ingresa su contraseña en CryptoForge, ésta es procesada con un algoritmo Hash para generar una huella digital, conocida en Inglés como "digest". La función Hash es de un solo sentido (no existe forma de revertir el proceso) y toma un dato de entrada de tamaño variable, en este caso su contraseña, y la convierte en un dato de tamaño fijo. Además, asegura que si se cambia la contraseña -aún en un solo bit- se genera un resultado completamente diferente. Este resultado es la llave que, en realidad, utiliza el cifrador. Este proceso se repite con una función Hash diferente para cada algoritmo de encriptación utilizado, generando hasta cuatro llaves únicas y sin mutua relación.
Aunque el motor de CryptoForge le permite encriptar con más de un algoritmo, para la mayoría de los usuarios semejante cosa podría ser considerada innecesaria, porque el nivel de protección provisto por cualquiera de ellos es (al menos en el mundo no clasificado), suficientemente bueno. Al encriptar con más de un cifrador, usted se protege ante la eventualidad de que en el futuro alguien descubra una forma de vulnerar alguno de los algoritmos. En realidad, es sorprendentemente difícil determinar con precisión qué tan bueno es un algoritmo de encriptación. Si usted aún decidiese encriptar con más de un algoritmo, cambiar el orden en que son usados debería agregar otro problema a un ataque basado en hardware (por ej. Una matriz de chips especiales intentando miles de trillones de llaves por segundo, esta solución de hardware es más rápida que una solución por software y superordenadores).
El Borrado Seguro de archivos se lleva a cabo escribiendo un patrón de bits cero y uno, y un flujo de datos pseudo aleatorios, iterando la cantidad de veces especificada por el usuario. El nombre del archivo es sobrescrito también. El tamaño del archivo es entonces truncado a cero.
Fuente: http://www.cryptoforge.com.ar/seguridad.htm
La criptografía es la ciencia de usar las matemáticas para encriptar y desencriptar datos. Una vez que la información ha sido encriptada, puede ser almacenada en un medio inseguro o enviada a través de una red insegura (como Internet) y aún así permanecer secreta. Luego, los datos pueden desencriptarse a su formato original.
¿Qué es el proceso de encriptación y desencriptación?
La encriptación es el proceso en el cual los datos a proteger son traducidos a algo que parece aleatorio y que no tiene ningún significado (los datos encriptados o cifrados). La desencriptación es el proceso en el cual los datos encriptados son convertidos nuevamente a su forma original.
¿Qué es un algoritmo criptográfico?
Un algoritmo criptográfico, o cifrador, es una función matemática usada en los procesos de encriptación y desencriptación. Un algoritmo criptográfico trabaja en combinación con una llave (un número, palabra, frase, o contraseña) para encriptar y desencriptar datos. Para encriptar, el algoritmo combina matemáticamente la información a proteger con una llave provista. El resultado de este cálculo son los datos encriptados. Para desencriptar, el algoritmo hace un cálculo combinando los datos encriptados con una llave provista, siendo el resultado de esta combinación los datos desencriptados (exactamente igual a como estaban antes de ser encriptados si se usó la misma llave). Si la llave o los datos son modificados el algoritmo produce un resultado diferente. El objetivo de un algoritmo criptográfico es hacer tan difícil como sea posible desencriptar los datos sin utilizar la llave. Si se usa un algoritmo de encriptación realmente bueno, entonces no hay ninguna técnica significativamente mejor que intentar metódicamente con cada llave posible. Incluso para una llave de sólo 40 bits, esto significa 2ˆ40 (poco más de 1 trillón) de llaves posibles.
¿Qué diferencias hay entre los algoritmos simétricos y los asimétricos?
Los algoritmos simétricos encriptan y desencriptan con la misma llave. Las principales ventajas de los algoritmos simétricos son su seguridad y su velocidad. Los algoritmos asimétricos encriptan y desencriptan con diferentes llaves. Los datos se encriptan con una llave pública y se desencriptan con una privada, siendo ésta su principal ventaja. Los algoritmos asimétricos, también conocidos como algoritmos de llave pública, necesitan al menos una llave de 3.000 bits para alcanzar un nivel de seguridad similar al de uno simétrico de 128 bits. Y son increíblemente lentos, tanto que no pueden ser utilizados para encriptar grandes cantidades de información. Los algoritmos simétricos son aproximadamente 1.000 veces más rápidos que los asimétricos.
¿Qué tan seguro es CryptoForge?
CryptoForge le proporciona cuatro robustos algoritmos de encriptación para proteger sus datos:
Blowfish (llave de 448 bits) es un algoritmo de encriptación rápido y fuerte. Su creador es Bruce Schneier, uno de los más prestigiosos criptógrafos en el mundo.
Rijndael (llave de 256 bits) es un algoritmo seguro y eficiente. Sus creadores son Joan Daemen y Vincent Rijmen (Bélgica). Ha sido elegido como el nuevo Estándar Avanzado de Encriptación (AES) por el Instituto Nacional de Estándares y Tecnología (NIST) de los EEUU.
Triple DES (llave de 168 bits) es un algoritmo desarrollado por el gobierno de EEUU y ha sido evaluado durante años sin descubrírsele debilidades. Es una configuración de encriptación en la cual el algoritmo DES es usado tres veces con tres llaves diferentes.
Gost (llave de 256 bits) es un algoritmo de Rusia y podría ser considerado el análogo ruso al DES. Tiene un diseño conservador y no ha podido ser vulnerado, a pesar de haber sido uno de los más estudiados, durante años, por los mejores expertos en criptoanálisis.
El único método para vulnerar cualquiera de estos algoritmos, conocido hasta el momento, es intentando con todas las combinaciones de llaves posibles. Con mil millones de ordenadores capaces de probar mil millones de llaves por segundo cada uno, y empleando un algoritmo con llave de 168 bits, se necesitan 10*10ˆ24 años de trabajo para probar todas las llaves (para comparar, la edad del universo se estima en 10*10ˆ9 años). Además, CryptoForge implementa mecanismos contra modificaciones en su código. Cada vez que es ejecutado verifica los cifradores con los vectores de prueba que proveen sus diseñadores.
Los cuatro algoritmos implementados en CryptoForge son Cifradores de Bloque. Esto significa que encriptan los datos en bloques de bits, en vez de hacerlo de un bit por vez. Todos los algoritmos son utilizados en modo CBC (Cipher Block Chaining), donde los datos originales, antes de ser encriptados, son XOReados con el resultado del bloque cifrado anteriormente. Cuando se encripta el primer bloque, se utiliza un vector de inicialización de 128 bits generado aleatoriamente. El modo CBC asegura que aún si los datos originales contienen algunos bloques idénticos, cada uno será convertido en un bloque encriptado diferente.
La compresión incluida en CryptoForge refuerza la seguridad criptográfica aún más, porque reduce los patrones de datos en la información original, los cuales son explotados por las principales técnicas de criptoanálisis para intentar romper el cifrado.
Cuando usted ingresa su contraseña en CryptoForge, ésta es procesada con un algoritmo Hash para generar una huella digital, conocida en Inglés como "digest". La función Hash es de un solo sentido (no existe forma de revertir el proceso) y toma un dato de entrada de tamaño variable, en este caso su contraseña, y la convierte en un dato de tamaño fijo. Además, asegura que si se cambia la contraseña -aún en un solo bit- se genera un resultado completamente diferente. Este resultado es la llave que, en realidad, utiliza el cifrador. Este proceso se repite con una función Hash diferente para cada algoritmo de encriptación utilizado, generando hasta cuatro llaves únicas y sin mutua relación.
Aunque el motor de CryptoForge le permite encriptar con más de un algoritmo, para la mayoría de los usuarios semejante cosa podría ser considerada innecesaria, porque el nivel de protección provisto por cualquiera de ellos es (al menos en el mundo no clasificado), suficientemente bueno. Al encriptar con más de un cifrador, usted se protege ante la eventualidad de que en el futuro alguien descubra una forma de vulnerar alguno de los algoritmos. En realidad, es sorprendentemente difícil determinar con precisión qué tan bueno es un algoritmo de encriptación. Si usted aún decidiese encriptar con más de un algoritmo, cambiar el orden en que son usados debería agregar otro problema a un ataque basado en hardware (por ej. Una matriz de chips especiales intentando miles de trillones de llaves por segundo, esta solución de hardware es más rápida que una solución por software y superordenadores).
El Borrado Seguro de archivos se lleva a cabo escribiendo un patrón de bits cero y uno, y un flujo de datos pseudo aleatorios, iterando la cantidad de veces especificada por el usuario. El nombre del archivo es sobrescrito también. El tamaño del archivo es entonces truncado a cero.
Fuente: http://www.cryptoforge.com.ar/seguridad.htm
El nuevo router Belkin N1 Vision



Noticias24.- Si a veces te preguntas en silencio si alguien está chupando tu banda ancha inalámbrica o cuál de las PCs de la casa está consumiendo todo el ancho de banda, en Belkin hay alguien que diseñó el router perfecto para que te dediques al monitoreo continuo de tu red inalámbrica: el N1 Vision Wireless Router, que en un diseño elegante combina un display para el monitoreo de la red y un enrutador inalámbrico con el estándar 802.11n.
Es hora de jubilar a tu viejo router 802.11b. El N1 Vision estará llegando en el mes de abril y el precio en dólares de los EEUU ronda los $180.
Belkin nos hizo llegar esta nota de prensa sobre el N1 Vision:
Belkin presenta el N1 Vision Wireless Router, una solución que cuenta con una pantalla que monitorea el tráfico en la red además de informar al instante que equipos se encuentran conectados a la misma y sus tráficos individuales. N1 Vision es ideal para compartir archivos y conexión de banda ancha, totalmente sin cables, con la tecnología más fácil de implementar y con una serie de sorprendentes atributos técnicos de gran calidad.
“El router inalámbrico N1 Vision ofrece un sencillo modo de visualizar la velocidad de banda ancha de las redes de los usuarios. El uso del ancho de banda de su ordenador y el estado de los dispositivos conectados se ven en una pantalla de lectura sencilla en el propio router”. Explicó Carlos Solano, Director Comercial para Cono Sur de Belkin y agregó: “N1 Vision proporciona mayor alcance, más velocidad y eficiencia para los usuarios que deseen enviar información, vídeos, música, fotos y archivos entre los ordenadores conectados en red en la empresa o en el hogar. La visualización integrada del estado de la red le indica la actividad de su red. Los íconos representan cada componente de su red y le muestran si cada dispositivo está funcionando correctamente o no.”
Belkin N1 Vision ofrece gran rendimiento de interconexión en red con su diseño de radio 802.11n 3×3 inalámbrico y puertos de gigabit equipados con cables. El router inalámbrico N1 Vision continúa con el compromiso de Belkin de ofrecer la mejor experiencia para el usuario en el mercado local a través de la instalación Plug-and-Play “sin CD” y una sencilla configuración de seguridad de red.
Prestaciones del Router inalámbrico N1 Vision
La visualización interactiva de estado muestra la velocidad de banda ancha de su red, el uso del ancho de banda de su ordenador, el estado de los dispositivos conectados en red y mucho más.
Configuración Plug-and-Play sin CD
Sencilla configuración de seguridad con soporte para Wi-Fi Protected Setup™ (instalación protegida Wi-Fi) y SSID múltiple
Draft 2.0 del estándar 802.11n compatible: el diseño de radio 3×3 ofrece excelentes velocidades y una completa cobertura inalámbrica
Puertos de 4 gigabit
The N1 Vision wireless router offers an easy way for you to view your network's broadband speed, computer bandwidth usage, and the status of your connected devices - all from an easy-to-read display.
Packaged in a new sleek and sophisticated design, N1 Vision offers the best in networking performance with its wireless 802.11n* 3x3 radio design and wired gigabit ports. The N1 Vision wireless router continues Belkin's commitment in providing the best user experience in the home market through its Plug-and-Play "CD-less" installation and simple network security setup.
Operación Donsimón
El Alto Mando informa que debido a la falta de avances significativos en el criptoanálisis de los mensajes enemigos, Inteligencia ha puesto en marcha la operación Donsimón. Los chicos de Operaciones Especiales han permitido que el enemigo capture un camión de suministros cargado hasta los topes de envases-brik de nuestra bebida nacional: la sangría. En estos momentos el Cuartel General enemigo es un gran bullicio, jolgorio y celebración. Las órdenes son esperar acontecimientos.
Bip... Bip... Bip... El Alto Mando informa de nuevo. La operación Donsimón ha resultado inesperadamente todo un éxito. Inteligencia ha capturado un nuevo mensaje cifrado, esta vez más largo de lo habitual. Inteligencia también informa que este sistema de cifrado no volverá a ser empleado por el enemigo ya que los responsables de los envíos de los tres mensajes han sido apartados del servicio y sometidos a un consejo de guerra sumarísimo..
Fuente: Kriptopolis (www.kriptopolis.org/)
Bip... Bip... Bip... El Alto Mando informa de nuevo. La operación Donsimón ha resultado inesperadamente todo un éxito. Inteligencia ha capturado un nuevo mensaje cifrado, esta vez más largo de lo habitual. Inteligencia también informa que este sistema de cifrado no volverá a ser empleado por el enemigo ya que los responsables de los envíos de los tres mensajes han sido apartados del servicio y sometidos a un consejo de guerra sumarísimo..
Fuente: Kriptopolis (www.kriptopolis.org/)
El 'spam' cae a una tercera parte tras desconectar una sola empresa

El volumen de correo electrónico no deseado enviado en todo el mundo se desplomó el martes después de que una empresa de hosting, identificada por la comunidad de seguridad como una de las principales organizaciones dedicandas a la actividad spam, fue puesta fuera de línea.
Los expertos dicen que la abrupta caída en el volumen de spam se debe a que los proveedores de Internet (ISPs) desconectaron a McColo Corp, un proveedor de hosting de California que alojaba la base de operaciones de los servidores encargados de coordinar el envío de aproximadamente el 75% de todo el spam diario...
sábado, 15 de noviembre de 2008
Servidor de Linux en un conector Ethernet

por : Jesús Maturana: 13 Nov 2008, 23:05
Digi International ha presentado un servidor Linux empaquetado dentro de lo que es el encapsulado de un conector RJ45 hembra. Es el nuevo ME 9210 e integra un sistema operativo basado en el kernel 2.6.26.
Digi asegura que el ME 9210 es “el dispositivo integrado más pequeños disponible como servidor Linux”. Aunque la compañía está enfocando el módulo principalmente a aplicaciones de adquisición de datos y control, como son PLCs (programmable logic controllers), PDUs (power distribution units) y equipamiento de control ambiental, el dispositivo es completamente de propósito general en cuanto a funciones y podría formar parte en otros dispositivos integrados.
El ME 9210 está basado en el SoC NS9210, que integra un núcleo de 32 bits ARM926EJ-S (con MMU) y con frecuencia de reloj de 75 MHz. El módulo integra 8 MB de RAM y hasta 4 MB de memoria flash. En cuanto a interfaces integrados: Ethernet 10/100, puerto de serie de alta velocidad, interfaces SPI y I2C, 10 líneas GPIO y CAN fieldbus.
El módulo dispone de opciones avanzadas de gestión de energía y ofrece soporte de PoE (power-over-Ethernet) permitiendo ser alimentado directamente por el puerto RJ45. Para su funcionamiento requiere 3,3V y tiene un consumo de 1,1W activo y 0,6W en stanby. En cuanto al rango de temperaturas operacional, es muy amplio, dado que está preparado para funcionar entre -40 y +85 grados centígrados. El precio en packs de 1.000 unidades será 48 dólares y lanzarán en diciembre un kit de iniciación que constará del módulo, una placa de desarrollo, documentación y un DVD con el sistema operativo y la herramienta Eclipse para programación además de una fuente de alimentación por 249-299 dólares.
Extraído de The Enquirer
martes, 11 de noviembre de 2008
Cifrado cuántico
1 - Sistemas de cifrado cuántico
Mientras que la computación cuántica se mueve en el misterio de los secretos de estado y en los laboratorios de universidades y corporaciones, ya hay sistemas de cifrado cuántico comerciales, como el de la empresa **QuinetiQ**∞.
Vamos a intentar describir, de forma sencilla, el funcionamiento de un sistema de claves cuánticas, que supera el problema de los computadores cuánticos. Para ello, nos basaremos en el protocolo cuántico de generación de claves (QKG) más sencillo, el **BB84**∞...
Un sistema de cifrado tradicional es seguro si se dan dos condiciones:
* La clave es perfectamente aleatoria.
* La clave solamente se usa una vez.
Aunque parece algo sencillo, lo cierto es que para que esto se cumpla, es necesario que la clave sea del mismo tamaño que el mensaje, que tenga un único uso y ha de estar en posesión del emisor y del receptor de forma exclusiva. El principal problema para lograrlo, está en la compartición de las claves.
Una solución al problema de la compartición de claves, la encontramos en los sistemas de clave pública-privada, pero como hemos dicho, puede que no sean seguros cuando los ordenadores cuánticos estén disponibles. Para ello, podemos recurrir a sistemas de distribución de claves cuánticos, que se basan en tres leyes **fundamentales**∞:
* Teorema de no clonación, que nos asegura que el estado de un Qbit no puede ser copiado en otro. Es decir, un espía no podrá copiar la clave que circula por el sistema cuántico en otro sistema cuántico.
* Cualquier intento de determinar información sobre un sistema cuántico, tiene como consecuencia, una modificación del mismo. Es decir, no se puede ver lo que circula por el sistema cuántico sin perturbarlo.
* Una vez determinado el estado cuántico, la situación del Qbit es irreversible. Es decir, no podemos borrar nuestras huellas, si espiamos un sistema cuántico.
Para un sistema de distribución de claves cuántico, necesitamos dos canales, uno cuántico, por ejemplo, una fibra óptica y otro tradicional, por ejemplo, una conexión telefónica. También necesitaremos una fuente de fotones, como un láser.
Cada Qbit puede tener cuatro estados posibles, dos corresponderán a una polarización oblicua y otros dos a una polarización recta. Para provocar estos estados usaremos, en el lado del emisor, que llamaremos Alicia, cuatro filtros de polarización, dos para el modo de polarización recta y dos para el de polarización oblicua. Estos filtros los podemos representar como “/” y “\” (45º y -45º) para polarización oblicua y “|” y “-” (90º y 180º) para polarización recta. Supongamos también, que asignamos a cada variación de los modos de polarización, los valores de “0” y “1”. Por ejemplo, “\”=1, “/”=0 y “-”=0, “|”=1. Para determinar un fotón por completo, debemos saber al mismo tiempo, el modo de polarización y el bit codificado en dicho modo, lo que tendría el problema detallado en el punto b) de las leyes de la mecánica cuántica. La solución está en determinar el bit, sin determinar el modo de polarización ¿cómo lo hacemos?. Veamos el procedimiento.
En el otro lado, que llamaremos Bob, colocaremos unos filtros “x” e “+” que son capaces de determinar el bit correcto, solamente si acertamos a utilizar el filtro que corresponde al modo de polarización que tenía el fotón, recto o oblicuo, ya que no podemos determinar completamente el estado, por el principio de incertidumbre. Para hacerlo, se necesitarían 4 filtros y como la mecánica cuántica nos impide usar los cuatro al mismo tiempo, en el momento que no usemos el adecuado, cambiaremos la polarización del fotón, destruyendo su información. Dicho de otro modo, de los 3 parámetros que definen el estado de polarización de un Qbit, solamente podemos determinar dos, el otro nos lo tienen que dar de alguna forma, como veremos seguidamente.
Estos dos filtros los utilizaremos de forma aleatoria sobre los Qbits que nos llegan, consiguiendo una secuencia de 0 y 1. De esta secuencia, como hemos dicho, no estamos seguros que hayamos elegido el filtro correcto, es decir, todavía nos queda por determinar el tercer parámetro de cada Qbit. Para ello, Bob manda a Alicia, a través de la línea telefónica y en claro, la secuencia de filtros que ha utilizado aleatoriamente. Alicia le contestará indicando los que ha utilizado correctamente para cada Qbit, lo que permite a Bob eliminar los bits correspondientes a una mala elección del filtro.
Hay que señalar, que la comprobación de filtros no compromete la clave. Para cada filtro, sigue habiendo la posibilidad de un 0 o 1, la incertidumbre es absoluta, ambos valores, para cada modo de polarización, tienen una probabilidad del 50%. Lo que se hace realmente, es intercambiar el parámetro que faltaba y que permite a Bob determinar la polarización completa del Qbit, sin violar el principio de incertidumbre. Como se hace después, no antes del envío, no hay más remedio que rechazar los bits que no son válidos. Los bits correspondiente a una correcta elección del filtro, formarán la clave para intercambiar mensajes. Este proceso se denomina medición de **Von Neumann**∞.
Ahora bien ¿qué pasa si hay alguien, llamado Eva, interceptando la comunicación, con la intención de capturar la clave?. Para no interferir en la comunicación, Eva debería poder usar los dos filtros al mismo tiempo, cosa que es imposible, ya que cada vez que se equivoque en la elección, Bob recibirá un Qbit cambiado. Para comprobarlo, se emplean métodos estadísticos. Si no hay nadie escuchando, la probabilidad de acertar con el filtro adecuado es de 3/4, mientras que de fallar es de 1/4. Si Eva está escuchando, aumentará la tasa de errores, por los fallos que introduce al usar el filtro con el modo de polarización no adecuado. Los fallos serán un 50% mayores que antes, por lo tanto, la probabilidad de acertar en este caso bajará a 5/8 y de fallar subirá a 3/8. Para comprobarlo, bastará con tomar una parte de los bits recibidos e intercambiarlos entre Alicia y Bob. Si la tasa de error, es superior a la estimada de 1/4 y se aproxima a 3/8, es que Eva está escuchando e introduce errores en el proceso, por lo que la clave no es válida.
Estos sistemas tienen la limitación de la distancia, de la velocidad de transmisión máxima, limitada a 100 Mb/s y de la necesidad de una conexión mediante fibra óptica entre los extremos. La criptografía cuántica no se basa en la complejidad del sistema, se basa en el hecho de que al intentar leer un sistema cuántico, se modifica su estado de forma irremediable, es decir, en la misma incertidumbre y aleatoriedad que caracteriza la mecánica cuántica, más seguridad es imposible.
Extraído de Wikilearning
Mientras que la computación cuántica se mueve en el misterio de los secretos de estado y en los laboratorios de universidades y corporaciones, ya hay sistemas de cifrado cuántico comerciales, como el de la empresa **QuinetiQ**∞.
Vamos a intentar describir, de forma sencilla, el funcionamiento de un sistema de claves cuánticas, que supera el problema de los computadores cuánticos. Para ello, nos basaremos en el protocolo cuántico de generación de claves (QKG) más sencillo, el **BB84**∞...
Un sistema de cifrado tradicional es seguro si se dan dos condiciones:
* La clave es perfectamente aleatoria.
* La clave solamente se usa una vez.
Aunque parece algo sencillo, lo cierto es que para que esto se cumpla, es necesario que la clave sea del mismo tamaño que el mensaje, que tenga un único uso y ha de estar en posesión del emisor y del receptor de forma exclusiva. El principal problema para lograrlo, está en la compartición de las claves.
Una solución al problema de la compartición de claves, la encontramos en los sistemas de clave pública-privada, pero como hemos dicho, puede que no sean seguros cuando los ordenadores cuánticos estén disponibles. Para ello, podemos recurrir a sistemas de distribución de claves cuánticos, que se basan en tres leyes **fundamentales**∞:
* Teorema de no clonación, que nos asegura que el estado de un Qbit no puede ser copiado en otro. Es decir, un espía no podrá copiar la clave que circula por el sistema cuántico en otro sistema cuántico.
* Cualquier intento de determinar información sobre un sistema cuántico, tiene como consecuencia, una modificación del mismo. Es decir, no se puede ver lo que circula por el sistema cuántico sin perturbarlo.
* Una vez determinado el estado cuántico, la situación del Qbit es irreversible. Es decir, no podemos borrar nuestras huellas, si espiamos un sistema cuántico.
Para un sistema de distribución de claves cuántico, necesitamos dos canales, uno cuántico, por ejemplo, una fibra óptica y otro tradicional, por ejemplo, una conexión telefónica. También necesitaremos una fuente de fotones, como un láser.
Cada Qbit puede tener cuatro estados posibles, dos corresponderán a una polarización oblicua y otros dos a una polarización recta. Para provocar estos estados usaremos, en el lado del emisor, que llamaremos Alicia, cuatro filtros de polarización, dos para el modo de polarización recta y dos para el de polarización oblicua. Estos filtros los podemos representar como “/” y “\” (45º y -45º) para polarización oblicua y “|” y “-” (90º y 180º) para polarización recta. Supongamos también, que asignamos a cada variación de los modos de polarización, los valores de “0” y “1”. Por ejemplo, “\”=1, “/”=0 y “-”=0, “|”=1. Para determinar un fotón por completo, debemos saber al mismo tiempo, el modo de polarización y el bit codificado en dicho modo, lo que tendría el problema detallado en el punto b) de las leyes de la mecánica cuántica. La solución está en determinar el bit, sin determinar el modo de polarización ¿cómo lo hacemos?. Veamos el procedimiento.
En el otro lado, que llamaremos Bob, colocaremos unos filtros “x” e “+” que son capaces de determinar el bit correcto, solamente si acertamos a utilizar el filtro que corresponde al modo de polarización que tenía el fotón, recto o oblicuo, ya que no podemos determinar completamente el estado, por el principio de incertidumbre. Para hacerlo, se necesitarían 4 filtros y como la mecánica cuántica nos impide usar los cuatro al mismo tiempo, en el momento que no usemos el adecuado, cambiaremos la polarización del fotón, destruyendo su información. Dicho de otro modo, de los 3 parámetros que definen el estado de polarización de un Qbit, solamente podemos determinar dos, el otro nos lo tienen que dar de alguna forma, como veremos seguidamente.
Estos dos filtros los utilizaremos de forma aleatoria sobre los Qbits que nos llegan, consiguiendo una secuencia de 0 y 1. De esta secuencia, como hemos dicho, no estamos seguros que hayamos elegido el filtro correcto, es decir, todavía nos queda por determinar el tercer parámetro de cada Qbit. Para ello, Bob manda a Alicia, a través de la línea telefónica y en claro, la secuencia de filtros que ha utilizado aleatoriamente. Alicia le contestará indicando los que ha utilizado correctamente para cada Qbit, lo que permite a Bob eliminar los bits correspondientes a una mala elección del filtro.
Hay que señalar, que la comprobación de filtros no compromete la clave. Para cada filtro, sigue habiendo la posibilidad de un 0 o 1, la incertidumbre es absoluta, ambos valores, para cada modo de polarización, tienen una probabilidad del 50%. Lo que se hace realmente, es intercambiar el parámetro que faltaba y que permite a Bob determinar la polarización completa del Qbit, sin violar el principio de incertidumbre. Como se hace después, no antes del envío, no hay más remedio que rechazar los bits que no son válidos. Los bits correspondiente a una correcta elección del filtro, formarán la clave para intercambiar mensajes. Este proceso se denomina medición de **Von Neumann**∞.
Ahora bien ¿qué pasa si hay alguien, llamado Eva, interceptando la comunicación, con la intención de capturar la clave?. Para no interferir en la comunicación, Eva debería poder usar los dos filtros al mismo tiempo, cosa que es imposible, ya que cada vez que se equivoque en la elección, Bob recibirá un Qbit cambiado. Para comprobarlo, se emplean métodos estadísticos. Si no hay nadie escuchando, la probabilidad de acertar con el filtro adecuado es de 3/4, mientras que de fallar es de 1/4. Si Eva está escuchando, aumentará la tasa de errores, por los fallos que introduce al usar el filtro con el modo de polarización no adecuado. Los fallos serán un 50% mayores que antes, por lo tanto, la probabilidad de acertar en este caso bajará a 5/8 y de fallar subirá a 3/8. Para comprobarlo, bastará con tomar una parte de los bits recibidos e intercambiarlos entre Alicia y Bob. Si la tasa de error, es superior a la estimada de 1/4 y se aproxima a 3/8, es que Eva está escuchando e introduce errores en el proceso, por lo que la clave no es válida.
Estos sistemas tienen la limitación de la distancia, de la velocidad de transmisión máxima, limitada a 100 Mb/s y de la necesidad de una conexión mediante fibra óptica entre los extremos. La criptografía cuántica no se basa en la complejidad del sistema, se basa en el hecho de que al intentar leer un sistema cuántico, se modifica su estado de forma irremediable, es decir, en la misma incertidumbre y aleatoriedad que caracteriza la mecánica cuántica, más seguridad es imposible.
Extraído de Wikilearning
Suscribirse a:
Entradas (Atom)