jueves, 19 de agosto de 2010

Un nuevo tipo de microchip diseñado para computar procesando probabilidades

18/08/2010 | Alvy

Ofrece una forma más rápida y eficiente de resolver algunos de los cálculos y tareas en que los procesadores de hoy en día son ineficientes.

Normalmente, los microprocesadores que equipan los ordenadores y dispositivos electrónicos trabajan todos sobre unas bases digitales bien conocidas: los bits que en binario representan los unos y ceros que pueden almacenarse, las operaciones entre esos bits, la conversión mediante las llamadas «puertas lógicas» que los convierten en números, instrucciones que el ordenador procesa y demás. Y luego están todos los cálculos que han de realizar mediante programas específicos para las diversas tareas.

Ahora ha surgido un chip diferente, llamado Lyric, que está diseñado para «calcular procesando probabilidades», de modo que puede realizar directamente muchas de las tareas de los programas de hoy en día que tienen que ver con la lógica de probabilidades al manipular grandes volúmenes de datos, tales como filtrar el correo basura, detectar y corregir errores, generar recomendaciones o crear modelos financieros. Los microchips actuales ya lo hacen, pero de forma en cierto modo muy ineficiente.

La compañía que lo fabrica, Lyrics Semiconductor, tiene su origen en gente del MIT que consiguió 20 millones de dólares de financiación de DARPA, el departamento de proyectos avanzados de la Defensa de Estados Unidos.

La primera versión de Lyric que han puesto en el mercado es un sistema de corrección de errores para las memorias Flash. En este tipo de memorias, como las que incorporan las cámaras digitales o los «pinchos USB», su diminuto tamaño y su propia naturaleza hace que 1 de cada 1.000 bits se lea con un error. En realidad no hay problema porque un procesador se encarga de detectar el problema y corregirlo sobre la marcha, releyendo la memoria si es necesario. Pero todo eso consume tiempo y energía. Con el nuevo procesador especializado LEC (Lyric Error Correction) la misma tarea se puede llevar a cabo con una tasa de errores 30 veces menor y un consumo de energía de solo el 10 por ciento.

El sistema de Lyric funciona mediante procesamiento en paralelo, y dado que se basa en un rediseño completo de los circuitos muchas aplicaciones que hoy en día necesitan varios procesadores para funcionar o que serían demasiado lentas pueden verse mejoradas por estas técnicas, en un factor que calculan en unas 1.000 veces. Todavía pasará algún tiempo hasta que puedan poner en el mercado un procesador Lyric «genérico» que sirva para resolver diversas tareas de modo probabilístico, pero calculan que los siguientes modelos verán la luz en 2013.


Artículo original en La Información.com

miércoles, 18 de agosto de 2010

Microsoft Arc Touch, ¿es éste el misterioso ratón táctil?

Hasta que Microsoft no lo anuncie, el misterioso ratón táctil que os presentamos hace unos días no será un dispositivo oficial, pero parece que no queda mucho para ello a tenor de las imágenes e informaciones que han aparecido en una tienda online alemana.

El Microsoft Arc Touch aparece en forma de render con un diseño un tanto peculiar, ya que su estructura se puede modificar para asumir dos formas completamente diferentes: una ergonómica, típica de un ratón convencional, y una segunda completamente plana, ¿para transportarlo mejor?, eso podemos leer en el supuesto paquete de venta, ¿o quizás para aprovechar mejor la superficie táctil?, espero que salgamos de dudas en pocos días.

En la web se atreven con la fecha de salida, el 13 de octubre, y hasta con el precio, unos 70 euros, un precio parecido al Magic Mouse y el Magic TrackPad de Apple.

En cuanto a las especificaciones, sabemos que cuenta con un receptor (2.4GHz) que se conecta en el puerto USB y se guarda dentro del propio ratón, también vemos un indicador de batería, y la citada superficie táctil que reemplaza a los botones físicos y la rueda de desplazamiento.

Artículo original en Xataka

martes, 17 de agosto de 2010

Chiste geek

El pensador (Reloaded)

Crean un chip que descifra señales láser de fibra óptica

Ayudaría a remplazar las conexiones eléctricas entre los componentes de un ordenador.

Un chip de silicio podría revolucionar el mundo de la informática gracias a una nueva tecnología capaz de sustituir el cableado de cobre por fibra óptica. De esta manera, los datos electrónicos que llegan al chip se convierten en luz láser que viajan por una fibra óptica y se convierten de nuevo en señales eléctricas unos pocos segundos más tarde. Estos chips fotónicos de silicio podrían facilitar el intercambio de nuevos componentes sin tener que abrir una máquina. Por Guillermo Melis

Un grupo de investigadores liderado por Mario Paniccia, director del laboratorio de fotónica de Intel en Santa Clara, California ha desarrollado unos diminutos chips de silicio con el objetivo de codificar y descodificar señales láser a través de la fibra óptica, según se informó en un reciente comunicado.

La era de la informática podría dar un salto excepcional en los próximos años gracias a este nuevo dispositivo, que permitirá remplazar los cables de metal entre componentes por enlaces de fibra óptica, con un mecanismo que se cree será mucho más rápido y eficiente.

La fibra óptica presenta materiales mucho más económicos que los convencionales de cobre, de hecho son materiales ópticos más ligeros y finos, de modo que pueden ir muchos más cables en el espacio donde antes sólo iba un cable de cobre. Este conducto de fibra de vidrio tiende a transmitir impulsos luminosos normalmente emitidos por un láser o Led.

El uso de fibras en la era óptica produce amplias ventajas en las redes de telecomunicaciones. Entre otros beneficios, presenta una mayor seguridad en la transmisión de datos, una gran ligereza y flexibilidad y capacidad para detectar y localizar cortes, gracias a un proceso basado en la telemetría.

"Todas las comunicaciones a larga distancia se producen gracias al uso del láser, aunque nunca lo hemos usado dentro de los dispositivos", confiesa el Dr. Paniccia.

Chip fotónico de silicio

En la actualidad, el cableado de cobre se utiliza para transferir señales de datos a poco más de 10 gigabytes por segundo. Así, tanto la unidad central de procesamiento como la memoria de un servidor, no pueden estar separados; de esta manera la forma en que los ordenadores se deben construir se torna más difícil.

Los chips fotónicos de silicio ayudarían a remplazar las conexiones eléctricas entre los componentes de un ordenador, como sus procesadores y la memoria. "Los centros de datos hoy día son grandes montones de cobre, algo que impone una serie de límites a la hora de organizar los componentes dentro de un servidor", menciona Paniccia.

Cuando se utiliza un ordenador, los datos llegan a través de una conexión de fibra óptica; esa señal debe ser desplazada desde un dispositivo fotónico independiente a un circuito electrónico. Según los investigadores este nuevo método asegura acelerar el procedimiento, ya que todo funciona sobre silicio.

El equipo de Paniccia realizó una demostración del primer sistema de comunicaciones fotónicas elaborado con componentes completamente integrados en chips de silicio. Según la presentación, que tuvo lugar la semana pasada, los datos electrónicos que llegan al chip se convierten en luz láser que viajan por una fibra óptica y se convierten de nuevo en señales eléctricas unos pocos segundos más tarde.

Este sistema es capaz de transmitir datos a una velocidad de 50 gigabytes por segundo, lo suficientemente veloz como para transmitir una película de larga duración en menos de un segundo. "Tener un chip del tamaño de una uña y que pueda producir un terabit por segundo cambia la forma en que pensamos acerca del diseño", afirmó el líder del grupo.

Futuras aplicaciones

Los elementos del sistema Intel se fabrican con los mismos mecanismos de escultura de silicio utilizados para construir chips de ordenadores en grandes cantidades."Hemos desarrollado esta tecnología para que sea de bajo coste y podamos llevarla a todas partes, tanto al campo de la informática de alto rendimiento como a los centros de datos", informó el profesor Paniccia.

El desarrollo del chip de silicio podría facilitar el intercambio de nuevos componentes sin tener que abrir una máquina. Sobre estas bases también se podrían instalar los componentes centrales en los periféricos. A su vez, la memoria adicional podría, por ejemplo, ocultarse en un ordenador portátil para aumentar su rendimiento. "Si tan sólo pudiera mover la memoria a un pie de distancia de los procesadores, podría agregar una placa de memoria para una sola CPU", señala el Dr. Paniccia.

Keren Bergman, líder del grupo que investiga la fotónica de silicio en la Universidad de Columbia, afirma que los enlaces ópticos requieren menos energía para funcionar: "Con los cables eléctricos, cuanto más tiempo pase, más energía se gasta de forma exponencial". A su vez, añade que las mayores ganancias se han observado en aplicaciones como el procesamiento de imágenes de alto y ancho de banda y la transmisión de video.

Paralelamente, el profesor Ajay Joshi, asistente en la Universidad de Boston, sostiene: "Si aumentamos la velocidad del canal entre los procesadores lógicos y la memoria, tenemos que replantearnos la forma en que diseñamos la memoria (…). También sería bueno tener procesadores que funcionasen ópticamente en lugar de por vía electrónica", concluyó.

Jueves 12 Agosto 2010
Guillermo Melis

Artículo original en Tendencias 21

WiMAX tendrá su propio sucesor

por : Javier Pastor: 16 Ago 2010, 11:47

Aunque el avance y popularidad de WiMAX han sido frenados por el auge de la tecnología LTE tanto en Europa como en Estados Unidos, el WiMAX Forum espera tener la segunda versión del estándar disponible para 2012.

Declan Byrne, director de marketing del grupo WiMAX Forum, ha indicado que el estándar WiMAX 2, conocido formalmente como 802.16m, estará terminado por parte de la IEEE este mes de noviembre, mientras que los primeros dispositivos certificados aparecerán a lo largo de 2011.

A partir de ese punto Byrne espera que los ISP comiencen a implantar la nueva versión de esta tecnología inalámbrica a partir de 2012, momento en el que también se prevé que las alternativas LTE den el salto masivo al mercado. Veremos qué ocurre entonces.

Artículo original en The Enquirer

Windows 7 ya se usa más que Vista

Publicado: 05. Ago, 2010 en Microsoft

Windows 7 superó a Windows Vista por primera vez desde su lanzamiento -
Superó a su antecesor por primera vez desde su lanzamiento. De todas formas, el antiguo Windows XP sigue siendo el sistema operativo más usado del mundo.

Durante el mes de julio, por primera vez desde su lanzamiento el año pasado, Windows 7 superó en cantidad de usuarios a Vista, la versión previa del sistema operativo desarrollado por Microsoft.

El mes pasado, el 14,46% de las PCs conectadas a internet usó Windows 7, mientras que el 14,34% tuvo instalado Vista. Una diferencia mínima, pero que habla del importante crecimiento de la última versión de Windows, comparada con la anterior. Mientras que a Vista le tomó siete meses llegar al 4% de usuarios a nivel mundial, Windows 7 llegó a ese piso en su primer mes en la calle.

Sin embargo, los buenos promedios pueden resultar anecdóticos si se tiene en cuenta que los usuarios de Vista sumados a los de Win 7 no alcanzan al número de personas que no terminan de desprenderse de Windows XP. Aquella versión del OS de Microsoft, lanzada en octubre de 2001, sigue siendo la que mayor cantidad de usuarios tiene en forma global. Acumula el 61,87% de las PCs conectadas a internet.

Con estos números de julio de 2010, Microsoft sigue acaparando más del 90% de las PCs de todo el mundo, ya que todas ellas corren alguna versión de Windows. Muy lejos, con poco más del 5%, aparece Apple con sus equipos que utilizan alguna versión del Mac OSX. Más atrás, con el 0,93% están las PCs que corren alguna distribución de GNU/Linux.

Artículo original en Dattatec Blog

10 millones de virus nuevos en seis meses

Publicado: 11. Ago, 2010 en Alertas de seguridad

El primer semestre de 2010 dejó un récord en la cantidad de malware nuevo detectado. El nivel de Spam se mantiene, después de llegar a su punto más alto el año pasado.

McAfee dio a conocer su reporte semestral de amenazas informáticas, con un total de 10 millones de virus nuevos detectados entre enero y junio de 2010. Una cifra récord que habla a las claras del grave problema del malware en las computadoras, más allá de los esfuerzos de los fabricantes de antivirus y desarrolladores de navegadores web.

Sin quererlo, un evento deportivo acompañó el crecimiento del malware. La Copa del Mundo jugada en Sudáfrica inspiró a muchos hackers, que encontraron nuevas maneras de atraer a sus víctimas y sumaron muchos virus al listado de McAffe.

El Spam, que había tenido su crecimiento histórico más alto durante 2009, este año parece haber encontrado su meseta. Se mantiene en los mismos números que hace doce meses atrás.

La gran novedad llega por un cambio en el target de, al menos, un hacker. Cuando todos estamos acostumbrados a relacionar el malware con las PCs Windows, McAfee informó que detectó en abril la existencia del troyano OSX/HellRTS, que ataca Macs, las computadoras de Apple. El OSX/HellRTS más que peligroso es bastante molesto: se dedica a leer o modificar el contenido del portapapeles, o bien a abrir y cerrar la lectora de CD.

“Por varias razones, el malware rara vez fue un problema para los usuarios de Macs. Pero eso podría estar por cambiar muy pronto,” dijo Mike Gallagher, responsable de tecnología del departamento de Amenazas Globales de McAffe. Con respecto al troyano creado para atacar equipos de Apple, agregó, “No queremos exagerar la amenaza. Pero sirve para recordar que en esta era del cibercrimen, el robo de datos y el robo de identidad obliga a que los usuarios de todos los sistemas operativos y equipos tomen precausiones.”

Artículo original en Dattatec Blog

viernes, 13 de agosto de 2010

Internet explicado en 50 nombres (o algo así)

Internet es algo tan grande que hasta tiene varias fechas de nacimiento. 1969, 1972, 1989… cada uno de esos años supuso un avance en un proyecto que hoy explica la forma en la que se hacen muchas cosas, desde informarse hasta comunicarse, pasando por cómo se venden productos o cómo se conciben empresas. Pero dejando de un lado las discusiones históricas sobre la Red en sí, nada mejor que hablar de sus protagonistas para entender su presente.

Durante los últimos quince años hasta 25 páginas, aplicaciones y servicios han marcado el presente de la Red. En estos tres lustros decenas de proyectos fallidos se han ido quedando a los lados del camino, pero otros tantos han sobrevivido a la criba. Con la certeza de que alguno se queda en el tintero, aquí hay un pequeño recorrido histórico por la Red:

* El 18 de enero de 1995 nace Yahoo!, uno de los primeros grandes buscadores de la última era de internet (antes Terra, Altavista o AOL habían dominado el horizonte). Sumido en los últimos años en un eterno proceso de absorción por los matones del barrio (Google y Microsoft), en los últimos dos años ha conseguido reflotar y reinventarse a través de otros servicios. Actualmente sirve 7,3 millones de páginas al día.

El 16 de julio de ese mismo año nació Amazon, el megaportal de distribución de contenidos culturales del presente. Fundamentalmente libros, pero también películas y música, Amazon es el buscador por excelencia para encontrar el escrito deseado. Hace algo más de dos años lanzó Kindle, el primer gran lector de libros en formato electrónico. Roza los 10 millones de páginas vistas al día.

También MSN, el 24 de agosto, y eBay, el 4 de septiembre, vieron la luz en 1995. La primera página sería la apuesta para internet de Microsoft, desde la que lanzaría e integraría servicios como el correo de Hotmail, la primera cuenta de correo abierta y masiva, o Messenger, el primer programa de mensajería instantánea universalizado para los usuarios; actualmente sirve 2,7 millones de páginas al día, pero ha conocido mayor gloria en el pasado. La segunda página se ha convertido en el gran bazar de la Red, donde los usuarios pujan, compran y venden sus productos con grandes posibilidades de encontrar receptor: 18,7 millones de páginas al día lo avalan.

* El 17 de julio de 1996 nació Alexa, el gran medido en abierto de la Red. En estos 14 años se ha convertido en el gran notario, el que dicta cuántos ojos leen el contenido de los grandes, marcando el auge o el ocaso de los nuevos sitios. Como curiosidad, señalar que ellos mismos no miden su propia audiencia, algo que sí hacen con todos los demás.

* El 15 de septiembre de 1997 nació Google, el gran oráculo de la actualidad. En aquel momento no era más que una idea, un logaritmo algoritmo de búsqueda. Hoy es un enorme ente vivo, cuyos ojos son arañas que rastrean, indexan, valoran y representan los contenidos de toda la Red. Es la página de inicio de la gran mayoría de internautas y, en los últimos años, mucho más que eso: una fábrica de aplicaciones, un mapeado completo de la Tierra en mapas navegables, un navegador, una forma de concebir la telefonía, un sistema operativo en ciernes… Unos 12 millones de páginas servidas cada día avalan al líder absoluto de la Red.

* El 23 de febrero de 1998 Netscape Communications Corporation anunció el nacimiento de un proyecto sin ánimo de lucro, una fundación llamada Mozilla desde la que se desarrollaría el primer gran navegador web de código abierto con su mismo nombre. A pesar de la competencia (el monopolio de facto de Explorer y la pujanza de los dos gigantes, Chrome y Safari), Mozilla sirve algo más de un millón de páginas al día.

* El 23 de agosto de 1999 vio la luz Blogger. Por aquel entonces era una empresa más en plena eclosión de las ‘punto com’, pero fue algo más: fue la primera plataforma de blogs universal, gratuita y fácilmente manejable por el usuario. Gran parte del éxito de la difusión del fenómeno blogger y, por tanto, de la nueva forma de comunicarse en internet fue gracias a ellos. En plena cresta de la ola fueron absorbidos por Google, pasando a integrarse en el gigante y, con el tiempo, cediendo terreno ante la competencia… pese a ello sigue sirviendo 5,6 millones de páginas al día.

* El 14 de noviembre de 2000 empezó a cristalizar la mutación: la versión 6.0 del Netscape Navigator, desarrollado en fuente abierta, acabaría evolucionando, tras dos años de desarrollo de fuente abierta, en la primera versión de lo que hoy conocemos como Firefox. La mariposa acabó de salir de la larva un 9 de noviembre de 2004.

* Si Google es el inicio de toda navegación y Amazon el destino de todo lector, desde el 10 de enero de 2001 la Wikipedia es la respuesta de muchas preguntas. Esta idea sin ánimo de lucro que cada día recibe 4,4 millones de visitas está consiguiendo el ansiado objetivo de los antiguos ilustrados: reunir todo el saber de la humanidad y, además, en diversas lenguas y de forma colaborativa.

* El 22 de marzo de 2002 vio la luz Friendster, una de las pocas redes sociales que han conseguido sobrevivir al efecto Facebook. Como Orkut en Brasil, Tuenti en España u otros servicios similares como Hi5, Fotolog o Livejournal, por citar varios ejemplos, Friendster es la red social por excelencia en el continente asiático. Pese a estar tan geolocalizado, 7,4 millones de páginas al día avalan su éxito.

* Dos grandes proyectos definieron 2003. El primero, LinkedIn, nació el 5 de mayo y hoy en día es la primera red social destinada al ámbito laboral del mundo. El segundo, WordPress, nació sólo 22 días después, pero con el tiempo ha conseguido dejar obsoleto al mismísimo Blogger y a otros como Typepad. No sólo su nacimiento fue similar, ya que también sus cifras de crecimiento van parejas: ambas suman más de 8 millones de páginas al día.

* Como si fueran gemelos, el 4 de febrero de 2004 nacieron dos grandes proyectos que, seis años después, siguen pujantes. El primero, Facebook, definió y acotó el concepto de red social… y de paso, reunió a millones de usuarios en todo el mundo que le reportan 14,5 millones de visitas al día. El segundo en nacer fue Flickr, el gran portal en el que subir de forma gratuita y sencilla imágenes que reúne cada día a 8,4 millones de usuarios y que fue adquirido, en plena guerra de crecimiento, por Yahoo!

* Durante la primavera de 2005 florecieron tres nuevas ideas. La primera fue Rapidshare, nacida el 24 de marzo como un portal en el que los usuarios pudieran subir y bajar contenido; hoy en día el portal y sus 4,7 millones de usuarios diarios son uno de los mayores dolores de cabeza de la industria en la lucha contra la piratería. Menos de un mes después nacería YouTube, un portal para subir vídeos de forma rápida y sencilla que revolucionó la forma de ver la Red hasta que fue absorbido por Google. A pesar de las millonarias cifras de venta, las casi 16 millones de páginas al día parecen avalar la operación.

El 9 de mayo de ese mismo año nació The Huffington Post, un blog que acabó siendo una enorme red de blogs norteamericana, todos acerca de la actualidad política estadounidense. Un nuevo concepto de medio de comunicación que hoy en día iguala en cifras a The New York Times en la Red.

Con los calores del verano, concretamente un 28 de junio, vino al mundo uno de los hijos de Google. Se trató de Google Earth, una visualización dinámica y vía satélite de prácticamente todo el planeta, lo que supuso que al gigante buscador le comenzaran a llegar los primeros problemas en materia de seguridad y privacidad.

* El 31 de marzo de 2006 apareció Twitter, una red de microblogging que, pese a no aportar nada nuevo, está revolucionando -otra vez- la forma de comunicarse. Imaginen un chat en el que elegir quién te lee y a quién leer, pero con los carácteres limitados y todo ello con una interfaz muy primaria. Pese a que los ingredientes no parecen maridar con la palabra ‘éxito’, unos 6,3 millones de páginas al día dicen lo contrario.

* El 23 de enero de 2007 nace Politico, portal de noticias que se convirtió en uno de los medios de referencia en las últimas elecciones presidenciales celebradas en Estados Unidos -algo inimaginable tiempo atrás-. Las cifras no asustan, pero sus influyentes 2,3 millones de lectores parecen tener más peso en los pasillos de la Casa Blanca del que tienen los grandes líderes mundiales.

* El 7 de octubre de 2008 vio la luz Spotify, un servicio musical que traía consigo la receta para combatir la piratería haciendo lo mismo que los portales P2P, pero mejor. Con la inversión de las grandes discográficas, Spotify ofrece un servicio de música en streaming en el que lo interesante es el acceso a la música, no su descarga ni posesión. Existen contadas invitaciones gratuitas para probar el servicio, y una versión sin restricciones y con versión en móvil mediante suscripción. La idea ha arrasado en Europa y ya prepara su inminente desembarco en EEUU.

* El 11 de marzo de 2009 apareció el juguete más usado de la actualidad. Una aplicación llamada Foursquare y basada en la geolocalización que dice en cada momento quién está dónde y cuántas veces visita determinados sitios. Para quienes prefieren proteger su intimidad, a finales de ese mismo mes, concretamente el 28 de marzo, nació Google Wave, un subproducto de Google que pretendía cambiar la forma de entender el correo electrónico, fusionándolo de forma inteligente con la mensajería instantánea e implementándolo con aplicaciones de Google Docs. Más de un año después la idea sigue sin cuajar.

* El 9 de febrero de 2010 apareció Google Buzz, el Twitter del buscador. Aunque ha pasado poco tiempo desde su nacimiento, parece el segundo paso en falso del gigante… aunque en anteriores ocasiones ha demostrado sobrada capacidad para integrar varios servicios aparentemente inservibles en una idea global que realmente sea revolucionaria. Con un sistema operativo en ciernes Wave y Buzz pueden acabar teniendo más sentido del que parece.


La Red hoy en día tampoco se entendería sin la navegación fuera del ordenador, fundamentalmente en dispositivos móviles y, poco a poco, en tabletas. Aunque aquí habría que hablar de Palm, Blackberry y Android, quien revolucionó este mundo que ahora amenaza con revolucionar la Red en sí misma es Apple. Pero la compañía de la manzana y sus iPod, iPhone, iPad, Apple Store y iTunes compite en otra liga.

Artículo original en Blog de Borja Ventura

miércoles, 11 de agosto de 2010

Cuando el gobierno mexicano se decidió por el software libre

Por Pepe Flores el 11 de Agosto de 2010, 17:03

“El gobierno debe gastarse el dinero de los ciudadanos en hospitales o escuelas, no en licencias de software”, dijo Beto Bolaños, director general del Sistema Internet de Presidencia (SIP) durante el sexenio del presidente Vicente Fox (2000 – 2006). Tuve la oportunidad de acercarme a su charla en la Campus Party México 2010, y quedé simplemente sorprendido sobre la historia de cómo el gobierno de este país se decidió por la adopción del software libre.

Todo comenzó como una medida de austeridad involuntaria. El gobierno de Fox, recién llegado a la oficina, solicitó a Starmedia la creación de unos foros para comunicación interna. La empresa respondió que los tendría listos por la módica cuota de dos millones de pesos. Debido a lo elevado del gasto, la administración decidió buscar otras empresas, y después de consultar con casi medio centenar de compañías, los costos seguían demasiado altos. “¿Por qué no lo haces tú mismo?”, le sugieron a Beto. Así comenzó la incursión en el software libre.

Es probable que la adopción del software libre haya sido uno de los logros más infravalorados de la pasada administración federal. El SIP desarrolló a partir de plataformas abiertas más de 60 sitios, estrategias de comunicación y colaboración web, sistemas de ejecución, seguimiento, control, monitoreo y seguridad. Gracias a su esfuerzo, se impulsaron iniciativas como salas de prensa virtuales, foros públicos (eDemocracia), sistemas de registro, transmisiones vía streaming y podcasts. El resultado fue impresionante: los sitios dependientes de Presidencia pasaron de 56.500 usuarios únicos al mes en 2000, a 2.253.871 en 2006.

Otro de sus grandes éxitos fue la temprana apuesta por las licencias Creative Commons. En los albores del proyecto, León Felipe Sánchez se les acercó para pedirles que registraran la paquetería de Presidencia bajo el rubro CC. Uno de los objetivos es que no hubiera trabas entre los diferentes niveles de gobierno (federal, estatal, municipal), de modo que todos pudieran adoptar el mismo sotware abierto. En una cumbre internacional, México fue reconocido como pionero en el campo, e incluso Estados Unidos solicitó un par de asesoría sobre plataformas abiertas. Todo este esfuerzo se coronó con el Premio Reto Estocolmo en 2004 en la modalidad de Gobierno Electrónico.

Sin embargo, con la llegada de Felipe Calderón, hubo una ruptura total en los proyectos. Se despidió al 100% de los integrantes del equipo de Sistemas, lo que causó que el gobierno entrante no pudiera levantar el sitio web de Presidencia el día del inicio de gestión (incluso acusando a Bolaños de boicot). La culpa, en buena parte, es del negocio detrás de las licencias — ¡tan sólo en licencias de Microsoft Office se calculan cerca de ocho millones de dólares!

Aún quedan varios esfuerzos aislados en el gobierno actual de México como el caso de la Comisión Federal de Electricidad, pero el auge que tuvo durante la administración foxista no se ha recuperado. Los beneficios de la adopción del software libre son amplios, desde la generación de empleos para nuevas generaciones de programadores mexicanos, hasta un ahorro impresionante en recursos. Ojalá sean cada vez más los gobiernos que adopten las plataformas abiertos, ya que han demostrado que no sólo están para competirle a cualquier monopolio, sino para ganarles.

Artículo original en Alt1040

viernes, 6 de agosto de 2010

La "otra" tabla periódica...


















Clickeá sobre la imagen para verla más grande

Original en el blog de Crispian Jago

Momento histórico: tribunal de EE.UU falla a favor del Software Libre

Por Elías Notario el 6 de Agosto de 2010, 14:29 en Legal, Software.

Como seguramente la mayoría de los lectores de esta casa sabrán en los Estados Unidos el software libre no está muy bien visto por parte de las autoridades, debido a lo cual le han puesto toda clase de trabas. Pues bien, recientemente acaba de suceder algo muy importante en relación al tema del software libre en el mentado país por salirse completamente de lo habitual: una corte de Estados Unidos ha fallado a favor de un programa open source en un litigio con la empresa Westinghouse Digital Electronics.

El litigio fue iniciado por la Software Freedom Conservancy, organización que entre otras cosas se dedica a defender varios proyectos open source como por ejemplo Amarok, Inkscape o jQuery, contra la empresa comentada en el párrafo anterior ya que esta copió, modificó, y distribuyó un software libre conocido como BusyBox en el firmware de sus productos para televisores pasándose la licencia GPL bajo la que está por el arco del triunfo. Es decir, que Westinghouse Digital Electronics utilizó un programa libre para crear algo cerrado, lo que la licencia GPL del mismo no permitía.

Lo interesante del caso como apuntaba arriba no es que una empresa se haya saltado la licencia GPL de un programa open source en EE.UU (esto pasa constantemente), sino que por primera vez en la historia un tribunal estadounidense ha fallado a favor del software libre. Concretamente el juez ha condenado a Westinghouse a dejar de vender los productos de la empresa que integran BusyBox y a pagar 150 mil dólares por daños. Finalmente lo más importante es que la sentencia sienta precedentes y la Software Freedom Conservancy tendrá muchas más opciones de ganar los otros 13 juicios que tienen abiertos a diversas empresas por saltarse la licencia GPL de programas software libre.

Artículo original en Alt1040

martes, 3 de agosto de 2010

Siete «ciberguardianes» tienen en sus manos las llaves de internet

13:33h | Lektu / Microsiervos

En caso de ciberataque, al menos cinco de ellos serían necesarios para «reiniciar el sistema».

La idea de un ciberataque masivo contra las infraestructuras de internet es algo más que una quimera; sea a manos de grupos terroristas, organizaciones mafiosas o simples hackers aburridos, la posibilidad de que alguien consiga interrumpir el funcionamiento de la Red, al menos por un tiempo, preocupa a las agencias gubernamentales de seguridad de todo el mundo.

El mes pasado corrieron rumores de que se había instituido un «botón del pánico» que permitiría desconectar internet, a modo de protección, en caso de ciberataque. Como de costumbre, los rumores son exagerados.

Lo que sí es cierto es que se ha instituido un grupo de siete personas procedentes de todas partes del mundo (Burkina Faso, Canadá, China, Estados Unidos, Reino Unido, República Checha y Trinidad y Tobago), a cuyo cargo se han puesto las «llaves» de internet.

Pese a que la entrega de esas llaves se llevó a cabo en un búnker estadounidense, no se trata de una iniciativa militar, sino de la ICANN, la Corporación de Internet para la Asignación de Nombres y Números, organismo que se encarga entre otras cosas de la gestión del sistema de dominios.

Las llaves son en realidad tarjetas inteligentes que contienen partes de la clave maestra del sistema DNSSEC (Domain Name System Security), un protocolo de seguridad que controla el registro e identificación de las páginas web, y que garantiza que, cuando tecleamos una URL para acceder a una de ellas, lleguemos a la página real y no a una copia idéntica maliciosa.

En caso de ataque, los servidores integrados en DNSSEC podrían cortar las conexiones entre sí para contenerlo y limitar su expansión. Una vez solventado el problema, al menos cinco de los siete ciberguardianes ahora designados deberían reunise en una base estadounidense, provistos de sus respectivas llaves, para reiniciar el sistema y restablecer la conectividad.

Esperemos que no haga falta.

Artículo original en Lainformacion.com

Kingston HyperX H2O ya son oficiales, refrigeración líquida para tu RAM

Hace unos meses asistimos a una presentación de Kingston donde allí estaban. Por entonces desconocíamos su nombre final, pero ahora ya están en el mercado. Las nuevas Kingston HyperX H2O ya se empiezan a vender, y ofrecen lo que prometieron.

Su característica principal es la llegada de la refrigeración líquida a la RAM desde el propio fabricante. Las soluciones que existían hasta ahora consistían en añadir accesorios de terceros, teniendo nosotros mismos que montarlo. Ahora, Kingston se encarga de comprarlo ya completo y listo para instalar en nuestro sistema, sin mayor complicación.

Kingston H2O nace con varios kits de dos y tres módulos, todos DDR3 y con frecuencias de 2.000 o 2.133 MHz., dependiendo de lo escogido. En todos los casos será necesario, como es lógico, disponer del resto de componentes necesarios para la refrigeración líquida: bloques, radiadores, tubos, etc.

Aún restan unas cuantas semanas para que se lancen en España, pero sus precios en Estados Unidos se sitúan en 157, 205 y 235 dólares, dependiendo de los modelos escogidos. ¿Caros? Posiblemente, pero es lo que tiene añadir una innovación en un campo como la refrigeración líquida, ya bastante cara de por si.

Artículo original en Xataka

lunes, 2 de agosto de 2010

El padre de Internet pronostica mercado negro para direcciones IP

IPv4 alcanza momento crítico

[ 02/08/2010 - 09:32 CET ]

Vinton Cerf, el “padre de Internet", pronostica un panorama desalentador para las direcciones IP disponibles, que incluso podría incluir un mercado negro de las mismas.

Diario Ti: En enero pasado, NRO (Number Resource Organization) anunció que el número disponible de direcciones IP se acercaba a un momento crítico. Según diversos análisis, las reservas de direcciones IP se agotarán en el transcurso de 2011. De hecho, el 94% de las direcciones ya está agotado.


Lo anterior hace surgir la necesidad urgente de activar, lo antes posible, el estándar IPv6. El actual IPv4 es un sistema de direccionamiento de 32 bits, que implica un número ligeramente superior a los 4 mil millones de direcciones. IPv6, que ha estado listo por más de diez años, usa 128 bits en cada dirección, por lo que representa un número de 2 elevado a 128; es decir, sixtillones de direcciones IP.

En la transición hacia IPv6, los expertos pronostican una aguda carencia de direcciones IP, situación que podría representar “oportunidades de negocio" para algunos. Al respecto, Vinton Cerf, uno de los creadores del protocolo TCP/IP, y que por tal razón ha sido considerado “el padre de Internet", comenta que podría surgir una suerte de mercado negro para direcciones IP. Esta situación ocasionaría un mayor gasto a los ISP, a la vez que los propietarios de direcciones IP disponibles tendrían en sus manos un poder que no beneficiaría al conjunto de la red. Con tal poder se pondría en jaque la naturaleza descentralizada de Internet, indica Cerf a Betanews.

Por su parte, John Curran, director de ARIN (American Registry for Internet Numbers) comenta que el retraso de IPv6 ocasionará dificultades a los ISP, desarrolladores y usuarios de todo el mundo. Curran critica el desempeño que han tenido los principales operadores y las autoridades de telecomunicaciones en algunos países.

Artículo original en Diario TI