viernes, 23 de octubre de 2009

Las imágenes 3D llegan a la pantalla del móvil

La compañía 3M desarrolla un sistema basado en un truco óptico

La compañía norteamericana 3M ha desarrollado una nueva tecnología que permitirá ver imágenes en tres dimensiones en los teléfonos móviles. Denominada Vikuiti 3-D, esta técnica se basa en un truco óptico: hacer llegar al ojo derecho y al izquierdo imágenes ligeramente distintas, que el cerebro interpreta como una sola. Aunque el sistema ya ha sido utilizado en pantallas de televisión, supone un gran desafío a la hora de aplicarlo a las pequeñas pantallas de los teléfonos. Por Yaiza Martínez.

Una nueva tecnología desarrollada por la compañía norteamericana 3M hará posible que dispositivos móviles, como los teléfonos, muestren imágenes en tres dimensiones, sin necesidad de usar gafas especiales.

Según publica la revista Technology Review, la nueva tecnología ha sido bautizada como Vikuiti 3-D, y funciona mediante la presentación de imágenes que resultan ligeramente distintas para el ojo izquierdo que para el derecho.

De esta forma, se consigue que el observador experimente un efecto “auto-estereoscópico”, esto es, se consigue generar una sensación de profundidad en la imagen porque el cerebro interpreta ambos estímulos visuales como uno solo.

Cómo funciona

Vikuiti 3-D funciona gracias a unas estructuras reflectantes con forma de prisma que están situadas en la parte trasera de una película de polímero y a diminutas microlentes colocadas en la parte frontal de dicha película.

Ambos componentes dirigen la luz a través de una pantalla de cristal líquido situada también en la parte frontal de la película de polímero.

Cuando la luz, que es emitida por diodos, pasa a través de esta pantalla, rebota en dos direcciones emitiendo imágenes ligeramente diferentes entre sí.

Así, si se mantiene el dispositivo a la distancia correcta, cada ojo recibe una perspectiva distinta, lo que provoca el efecto óptico de la tridimensionalidad, con una frecuencia de refresco de 120 Hz.

Gran desafío

Este efecto óptico se ha utilizado ya en pantallas de televisión, como la WOWvx 3-D de Philips, pero en los dispositivos móviles supone un gran desafío.

Los móviles suelen tener pantallas y píxeles más pequeños, lo que supone que las estructuras con forma de lente de la película son también particularmente pequeñas.

Por esa razón, el proceso de diseño de dichas lentes ha de ser de alta precisión, y se debe conseguir que cada una de ellas se alinee correctamente con el prisma correspondiente.

Para conseguirlo, 3M ha utilizado un proceso llamado microreplicación, una técnica de impresión diseñada por la misma compañía, con el que se pueden producir estructuras de un grosor de decenas de micrómetros en una película de sólo 75 micrómetros de grosor.

Por otro lado, las pantallas auto-estereoscópicas presentan importantes complicaciones por el llamado efecto de paralaje (desviación angular de la posición aparente de un objeto, dependiendo del punto de vista elegido), que se produce cuando la cabeza del observador se mueve y la perspectiva 3-D se pierde. Esta situación puede provocar incluso mareos.

Por este motivo, la mayoría de las compañías que fabrican pantallas siguen centrando sus esfuerzos en técnicas 3-D que requieran el uso de gafas.

Otros intentos

La tecnología de 3M permitirá que para poder ver películas 3D en el móvil, no sea necesario fabricar pantallas especiales, ya que bastará sólo con cambiar la parte que 3M ha desarrollado, manteniendo así prácticamente los precios y costes actuales por parte de los fabricantes.

Otras películas Vikuiti desarrolladas por la compañía ofrecen soluciones para mejorar la lectura y el brillo de las imágenes, en todas las pantallas de dispositivos electrónicos y en cualquier tipo de condiciones de luminosidad. Todo esto es posible gracias a la extensa experiencia de 3M en el tratamiento de la luz.

Otros intentos de llevar la tridimensionalidad a dispositivos portátiles han sido el de The Astohnishing Tribe, que gracias a la tecnología EyeTracking permite visualizar imágenes en 3D en dispositivos móviles; y el de la compañía japonesa CyberMap Japan Corp.

Tal y como explicamos anteriormente en Tendencias21, esta compañía ha desarrollado una tecnología destinada a llevar a los teléfonos móviles mapas en tres dimensiones que se actualizan con cada movimiento del usuario.

Artículo original en Tendencias 21

¿Intel posterga soporte USB 3.0 hasta el 2011?

Por Jose Vilches y Erik Orejuela, TechSpot en Español
Publicado: 22 de octubre del 2009, 3:00 PM EST

Para todos aquellos que esperan la adopción del estándar USB 3.0 van a verse decepcionados por la más reciente decisión de Intel. Según EETimes, Intel no ofrecerá placas madre con soporte para esta tecnología hasta el 2011. Para que esta tecnología despeje se necesita que baje de precio y eso depende de los chipsets. Sin chipsets económicos, como los que fabrica Intel, los vendedores interesados en ofrecer conexiones USB 3.0 tendrán que usar costosos controladores de otras compañías.

La información supuestamente viene de un gerente de alto rango dentro de un importante fabricante de computadoras, quien explica que los equipos de desarrollo para chipsets Intel están más enfocados en el soporte para la plataforma actual Nehalem y la transición a la especificación PCI Express 2.0 de 5GHz. El fabricante de chips podría también estar mostrando preferencia para su propio estándar de cable óptico, Light Peak, que puede transferir hasta 10Gbps y entrará en producción a comienzos del próximo año.

Intel ha preferido con comentar sobre estas declaraciones. Sin embargo, incluso si son ciertas esto no significa que no veamos soporte para el estándar USB 3.0 el próximo año, solo que no estará presente en placas económicas y por ende habrá menos dispositivos interesados en adoptarlo.

Artículo original en TechSpot

Un nuevo Wi-Fi podría acabar con el Bluetooth

La Wi-Fi Alliance, una organización que agrupa a las principales compañías del sector, anunció que en 2010 estará terminado Wi-Fi Direct, es decir, la capacidad de conectar dos dispositivos sin necesidad de estar enlazados a una red por un router

Con esa característica, Wi-Fi Direct se convierte en un rival de peso para el Bluetooth.

La Wi-Fi Alliance informó que Wi-Fi Direct permitirá conectar dos dispositivos a la misma velocidad que en una red común inalámbrica.

La nueva especificación permite comunicación entre cualquier dispositivo con Wi-Fi, como celulares, cámaras, impresoras y notebooks, hasta teclados y headphones.

La organización agregó que los productos con la nueva certificación serán capaces de conectarse con los que se utilizan en la actualidad, evitando así un desembolso de dinero por parte de los consumidores para actualizarse.

En un comunicado, la Wi-Fi Alliance mencionó que los dispositivos podrán crear conexiones uno a uno y también de grupos.

Si bien las aplicaciones son prácticamente idénticas a las del Bluetooth, la nueva tecnología Wi-Fi tiene algunas ventajas.

Por ejemplo, no todas las notebooks actuales cuentan con Bluetooth pero sí con Wi-Fi. Esto hará que dos portátiles puedan conectarse entre sí, incluso sin que haya una conexión de internet entre ambas.

“Wi-Fi Direct representa un paso adelante para la industria. Los usuarios se beneficiarán de una única solución tecnológica para transferir contenido y compartir aplicaciones rápido y fácil, aún cuando no haya un acces point disponible”, dijo Edgar Figueroa, CEO de la Wi-Fi Alliance.

Artículo original en Infobae

Y por bandera, la ideología pirata

Una nueva invasión vikinga acecha Europa. El Partido Pirata, surgido en Suecia en 2006, tiene como objetivo el mar digital, es decir, Internet. Busca el libre intercambio de archivos en la Red, acortar los derechos de autor y exigir garantías para la privacidad de los usuarios. Abanderado de la defensa de las libertades civiles en la sociedad de la información, el navío pirata avanza viento en popa. En Suecia, ha conseguido 215.000 votos en los comicios europeos (un 7,1% de los sufragios) y así ha arribado al corazón de Europa: ya tiene un escaño en el Parlamento Europeo.

Propulsado por el éxito en Suecia, el estandarte pirata ha emprendido un movimiento internacional. Partidos hermanos han surgido en decenas de países, entre ellos España. El mayor triunfo ha ocurrido en Alemania. Allí han sumado más de 845.000 (un 2% del voto) en las pasadas elecciones federales; una cifra que, aunque en un país del tamaño de Alemania no basta para conseguir un escaño (el mínimo está en el 5%), sí que hay que tener en cuenta. Sobre todo porque un partido como el Pirata no aspira a gobernar sino a servir de bisagra independiente: "Obtener un diputado ya es un triunfo", señala Fernando Garrido, experto en tecnologías de la información del Observatorio para la Cibersociedad.

¿Cómo se explica el empuje de una formación surgida de Internet, al margen de los cauces políticos habituales, y con un programa tan específico? Las claves de su ascenso radican precisamente en la concreción de su programa y su atractivo entre los votantes jóvenes, muy distanciados de la política tradicional, según los sociólogos.

"Los partidos existentes han fracasado en la tarea de desarrollar políticas sensatas para la naciente sociedad de la información. En vez de aprovechar las fantásticas posibilidades de Internet, quieren usar la nueva tecnología para crear un Estado de vigilancia en el que el Gobierno tenga más control sobre la vida cotidiana de los ciudadanos", explica a este diario el eurodiputado del Partido Pirata sueco, Christian Engström. "En esta área tenemos una nueva perspectiva que aportar al debate político. El hecho de que tuviéramos tanto éxito en las recientes elecciones europeas muestra que hay muchos ciudadanos, en particular los jóvenes, que comparten nuestra perspectiva".

Especialmente decisivo ha sido el efecto aglutinante provocado por las acometidas del enemigo. Es lo que sucedió el pasado abril, cuando un tribunal sueco condenó a un año de prisión a los administradores de Thepiratebay.org, radicado en Suecia y considerado el mayor portal de enlaces a descargas P2P del mundo. Resultado: la afiliación al partido casi se triplicó. Ya tienen alrededor de 50.000 miembros.

El caso del Partido Pirata es singular porque nace en un nuevo medio de comunicación, pero tiene precedentes, según recuerda Enrique Guerrero, experto en análisis electoral de la Universidad Complutense de Madrid. "Históricamente ha existido el single issue party, el partido con un solo tema. Es lo que sucedió hace 30 años con Los Verdes y sus reivindicaciones de preservación del medio ambiente". La causa verde nació de la sociedad civil y los grandes partidos tradicionales acabaron incorporando sus reclamaciones. Algo así podría suceder con los piratas. "Si se convierte en un tema de gran relevancia social, uno de sus efectos positivos es que inciten a los grandes partidos a adoptar la causa", añade Guerrero.

El germen del Partido Pirata surgió en el seno de los grupos suecos de activistas por los derechos civiles. Ante la aprobación de leyes que pretendían controlar la información que circula en la Red y que podrían permitir que el Gobierno leyera e-mails privados, se fundó en 2003 la Oficina Pirata, un foro de discusión. La iniciativa ganó un gran impulso con la creación de The Pirate Bay (thepiratebay.org), un tracker (rastreador) de archivos que se ha consolidado como el mayor portal de enlaces a descargas P2P del mundo.

Finalmente, en 2006 el ingeniero informático Rickard Falkvinge puso en marcha el Partido Pirata, que recogía aquellas inquietudes aunque de manera independiente. "Los políticos no se han enterado de lo que ha pasado en los últimos 15 años con la revolución que han supuesto los teléfonos móviles e Internet", opinaba Falkvinge en una entrevista con este periódico poco después de fundar el partido, del que es líder. "Siguen repitiendo las mismas cosas y tienen que comprender que en la era de Internet el copyright es incompatible con el derecho a la confidencialidad".

La privacidad de las comunicaciones, insiste Falkvinge, es un derecho crucial: "Ningún Gobierno puede llegar a decretar que cada pieza de comunicación privada, y más aún en el futuro, es ilegal; que si yo envío una canción o un vídeo por e-mail a un amigo estoy cometiendo un delito". De manera que la defensa de las libertades civiles y la reforma de los derechos de autor están estrechamente relacionadas, según advierte Engström, "ya que la única forma de intentar mantener el actual régimen de copyright es supervisar todo lo que hace todo el mundo en Internet. Un precio que no estamos dispuesto a pagar".

La ecuación es clara: "Cuando la legislación sobre copyright, tal como está hoy, entra en conflicto con nuestros derechos humanos fundamentales, los derechos tienen que prevalecer y la ley de copyright debe ser modificada", señala el eurodiputado a través del e-mail.

Precisamente la reforma del copyright es quizá ahora la cuestión más complicada. El objetivo del Partido Pirata es limitarlo a cinco años, según explicaba el eurodiputado Engström en una entrevista reciente. "Hoy, el plazo de protección del copyright dura toda la vida de un autor, más 70 años, lo cual es ridículo. Las normas actuales no tienen sentido porque en ningún negocio se puede trabajar con la idea de recuperar el dinero durante 100 años". Su objetivo es claro: "Que sea totalmente legal el intercambio de archivos que no tenga finalidad comercial".

Es lo que sucede en España, donde las descargas son legales, incluidos los contenidos sujetos a derechos de autor, con la condición de que no haya ánimo de lucro. Pero es una situación que puede tener fecha de caducidad. La principal opositora es la industria cultural, que denuncia pérdidas continuadas debido a las descargas. El sector cinematográfico avisa de que lleva cuatro años seguidos de pérdidas en ventas de entradas, al tiempo que crecen las descargas, que superan los 300 millones al año. En el sector musical aseguran que hace ocho años que pierden ingresos. Y dan un dato: si en 2000 se vendían en España 600 millones de euros en discos, en 2008 han bajado a 225 millones.

Para poner coto a la situación, el Gobierno emplazó a la industria cultural, representada en la Coalición de Creadores e Industrias de Contenido, y a las operadoras de telecomunicaciones, agrupadas en Redtel, a que negociaran una autorregulación del sector. Pero las conversaciones quedaron bloqueadas el pasado mayo.

La Coalición pide que se penalice a los concentradores de contenidos (como eMule, Thepiratebay, BitTorrent) y que se persiga a los usuarios comunes y se les sancione con la desconexión. Las operadoras aprueban lo primero, pero rechazan frontalmente desconectar a usuarios comunes.

Ante la falta de acuerdo, Redtel ha pedido al Gobierno que regule las descargas y le ha comunicado sus peticiones: que la futura normativa respete "escrupulosamente" los datos personales de los usuarios, que se descarte suspender conexiones a Internet, entre otras medidas. Eso sí, también quieren que se les blinde jurídicamente ante cualquier reclamación de usuarios sancionados. Para supervisar la regulación se crearía un órgano independiente, la Comisión de Desarrollo y Control de Contenidos Digitales.

Ahora es el turno del Gobierno. Si quiere ilegalizar las descargas deberá modificar la ley, seguramente la Ley de Servicios de la Sociedad de la Información y Comercio Electrónico (LSSI) y la Ley de Procedimiento Administrativo. Ello daría a la Comisión la potestad que ahora sólo tienen los jueces para cerrar páginas web.

La Secretaría de Estado para las Telecomunicaciones ha avanzado que "pronto" habrá medidas contra la piratería, aunque no concreta fechas, según informaba Europa Press esta semana. También hay alternativas. La propia industria cultural española, junto a los grandes estudios estadounidenses, preparan para 2010 un gran portal de descargas legales de música y películas.

Mientras, en Europa se impone el control del intercambio de contenidos en la Red. Los Gobiernos de Suecia, Francia y Reino Unido ya han endurecido sus leyes para permitir identificar y perseguir a los usuarios que descarguen contenidos sin pagar derechos de autor.

En cualquier caso, la mayoría de expertos da la bienvenida al Partido Pirata, una formación que, dicen, cuestiona la política tradicional. Los piratas "representan una nueva manera de ver la política, en general, y una nueva manera de actuar, en red, con contacto directo, con alianzas... Son un desafío a lo establecido y a la política formal", considera el asesor de comunicación Antoni Gutiérrez-Rubí. "Es un cambio en la manera de participar políticamente. Es decir, defienden intereses muy concretos pero, al mismo tiempo, desautorizan, con su voto crítico, al conjunto del sistema político".

Luego está el desencanto. Todos los expertos coinciden en que el crecimiento del credo pirata debe mucho a cierto cansancio respecto a la política tradicional. "No hay ninguna sintonía entre políticos e internautas", subraya Víctor Domingo, presidente de la Asociación de Internautas. Con él coincide Gutiérrez-Rubí. El éxito pirata radica no sólo en el descontento de los jóvenes hacia la política sobre Internet, sino también a una desafección general "hacia esos partidos tradicionales y hacia sus políticas, que no responden a las demandas de la sociedad".

Otros consideran el movimiento pirata como poco más que una pataleta de usuarios a los que sólo les interesa las descargas. "Es un voto de protesta de jóvenes airados", sostiene Henrik Pontén, cabeza visible de la Oficina Antipiratería sueca, que representa los intereses de la industria del cine, según afirma en una entrevista con el semanario alemán Der Spiegel. "Los piratas se presentan como víctimas, pero en realidad son los responsables y están dañando a la industria del cine". Para otros, la propuesta pirata tendría mucho de "glamour publicitario, con un tono propio de estilos de vida posmodernos, hiperconsumistas y lúdicos", afines a un grupo social "medio alto, urbano, semijoven y cosmopolita", señala José Luis Dader, experto en Comunicación Política de la Complutense.

El avance del Partido Pirata, y los objetivos que persigue, parecen resultar incómodos para algunas instituciones. De hecho, ni la Secretaría de Estado para la Sociedad de la Información, dependiente del Ministerio de Industria, ni la empresa pública Red.es (encargada de impulsar la implantación de las tecnologías de la información), ni el Observatorio Nacional de las Telecomunicaciones y la Sociedad de la Información han querido opinar para este reportaje. "Es un tema político", zanjan.

El programa pirata es ambicioso, como destaca Carlos Ayala, presidente de la Junta Directiva Nacional del Partido Pirata de España. "Hablamos de la exigencia de transparencia de los cargos públicos, de la reforma del sistema de patentes, del apoyo al software libre, entre otros". Todo se resume en tres pilares: la libre circulación de la cultura, la reforma del copyright y las patentes, y la protección de los derechos de los ciudadanos, con especial atención a la privacidad, que preocupa cada vez más. De hecho, la protección de datos de los usuarios en Internet inquieta a más de la mitad de los españoles, según el último barómetro del Centro de Investigaciones Sociológicas (CIS).

"Muchas de las reivindicaciones del partido buscan la protección de derechos fundamentales", advierte Domingo, "porque la batalla por la defensa de los derechos civiles en el siglo XXI se libra en Internet", remacha. La discusión atañe a los fundamentos de la Red. "Hay un debate abierto sobre la neutralidad de Internet, sobre el papel de las operadoras y de los usuarios, y se está haciendo de manera oscura y de espaldas al ciudadano", advierte Garrido.

Son cuestiones que los jóvenes sienten muy cercanas. "El Partido Pirata asume un programa que afecta a millones de personas, pero sobre todo atrae a los jóvenes, que son los que consumen más tecnologías y los que menos dispuestos están a pagar por ello", añade el sociólogo Guerrero. Esos nativos digitales miran la Red como su espacio público natural, indica Garrido. "Ven que su lugar de expresión es Internet y que hay multinacionales que quieren cerrarlo". Aun así, en el partido sostienen que sus militantes se dividen a partes iguales entre menores y mayores de 30 años.

Otros son escépticos sobre el futuro del partido. "Es fruto del momento; en cuanto se regulen sus reivindicaciones, puede que se haga prescindible", avisa Guerrero. El partido, añade, se ha beneficiado de que frente a los programas abstractos y mesurados de los grandes partidos, ellos proponen uno muy concreto y atractivo. "Al votante joven le suenan ajenos asuntos como la sanidad, las pensiones, crear infraestructuras o la sostenibilidad de las empresas", añade. "Y sus votantes no los perciben como políticos tradicionales. Pero cuando vean que se comportan como políticos normales, llegará el desencanto de la utopía".

Sea como fuere, sólo el tiempo dirá si la acometida pirata es sólo una batalla o el principio de la guerra por los derechos civiles en la sociedad de la información.

Artículo original en El País

sábado, 12 de septiembre de 2009

AMD modifica sistema de clasificación de procesadores

De acuerdo con Nigel Dessau, directivo del fabricante estadounidense de hardware, "el consumidor de hoy se preocupa por lo que ellos pueden hacer con su PC y no con lo que está dentro de ella". Es por ello que AMD cambió su sistema de clasificación al implementar su sistema VISION que pretende simplificar el proceso de compra de computadoras.

En esta nueva clasificación existe tres niveles. El símbolo VISION será aplicado a notebooks casuales y netbooks, lo que permitirá realizar tareas simples como navegar por la web, escuchar música, redactar textos, etc. En tanto, el segundo nivel, Vision Premium, permitirá ver videos en HD (incluyendo Blu-Rays), utilizar la webcam, jugar juegos, etc. Por último, Vision Ultimate representará el mayor grado de rapidez en el procesador, así como una tarjeta muy potente.

Artículo original en SemanaEconomica.com

Toshiba lanza discos de 1.8 pulgadas y 160GB de almacenamiento

Por Axel Marazzi el 11 de Septiembre de 2009 @ 16:16

Después de algunos días en los que Toshiba presentó sus discos de 2.5 pulgadas de 640GB y hoy se anunció que la empresa lanzó en Tokio que bate récords. La empresa presentó sus discos de 1.8 pulgadas con 160GB convirtiéndolo en los que permiten almacenar mayor cantidad de datos.

Se tratan de dispositivos de 4.200rpm que pesan 48 gr. y tienen solamente 5mm de ancho. ¿Para qué? Reproductores, MIDs, PMPs y todo tipo de dispositivos portátiles.

Además la compañía también lanzó versiones de 120GB, 80GB y 60GB y estarán disponibles desde fin de mes.

Artículo original en Gizmología

Ofrecen ideas para cobrar por noticias en internet

11 de Septiembre de 2009, 10:45am ET

NUEVA YORK (AP) - Algunas de las mayores compañías tecnológicas del mundo dicen que pueden ayudar a las compañías editoriales a cobrar exitosamente por las noticias en la internet.

IBM Corp., Microsoft Corp., Oracle Corp. e incluso Google Inc. _ una compañía a la que muchos periódicos culpan en parte por su descalabro financiero _ respondieron a un pedido de la Asociación de Periódicos de Estados Unidos de propuestas para formas de cobrar por las noticias en la red.

Pero aunque preparar la infraestructura para cobrar es una parte de la ecuación, las nuevas propuestas subrayan lo que pudiera ser el problema más obstinado: Lograr que las editoriales dejen de dar las noticias gratis en la internet.

Randy Bennett, vicepresidente de desarrollo de negocios en la asociación de periódicos, dijo que su grupo inició el proceso luego de una reunión con editoriales en mayo cerca de Chicago. Un reporte colocado en la internet el miércoles por el laboratorio de periodismo Nieman de la Universidad de Harvard incluye 11 diferentes respuestas de compañías tecnológicas.

Bennett dijo que el grupo quiere dar opciones a los periódicos, y no recomendará ninguna de propuesta más que las otras.

La propuesta de Google pudiera ser la que más llame la atención, aunque solamente porque la compañía _ que agrega miles de artículos de medios de prensa a sus páginas de noticias _ está estrechamente asociada con la idea de una internet abierta.

"Google considera que una internet abierta beneficia a usuarios y editoriales", escribe la compañía en su propuesta. "Sin embargo, abierta no significa gratis".

Google propuso ofrecer a las organizaciones de prensa una versión de su sistema Google Checkout, que es empleado para procesar pagos en la internet. Ello daría a los lectores un lugar en el que acceder a una cuenta y entonces pagar por las noticias de una serie de fuentes sin tener que colocar sus datos una y otra vez. Y la compañía dice que pudiera ofrecer a las editoriales una variedad de métodos de pago, desde subscripciones regulares hasta pagos por artículo.

Artículo original en Univision

El cerebro humano artificial será realidad en una década

Consistirá en una reproducción informática tridimensional del cerebro, en todos sus niveles

Investigadores del Brain Mind Institute de la Escuela Politécnica Federal de Lausana, en Suiza, aseguran que, en una década, estará desarrollado el primer cerebro artificial. El modelo consistirá en una compleja reproducción informática que reflejará las interacciones neuronales y otros mecanismos que posibilitan el procesamiento de la información por parte del cerebro. Este logro científico permitirá unificar todo el conocimiento acumulado por la neurociencia durante 100 años, y también vislumbrar qué sucede en el cerebro humano cuando éste se ve afectado por enfermedades que nadie comprende, pero que afectan a millones de personas. Por Yaiza Martínez.

En diez años habrá sido creado un cerebro artificial capaz de replicar las funciones del cerebro humano, afirma el neurocientífico Henry Markram del Brain Mind Institute perteneciente a la Escuela Politécnica Federal de Lausana (Suiza), en un artículo publicado por el servicio europeo de noticias AlphaGalileo.

Markram, que trabaja en el Proyecto Cerebro Azul (el Blue Brain Project ) de dicho Instituto desde hace años, señala además que un cerebro artificial es ya “técnica y biológicamente posible”, y que la única incertidumbre que queda para su desarrollo es financiera, porque el proyecto es “extremadamente caro”.

En cambio, la complejidad de la mente humana no supone una barrera para la creación de la réplica: “por supuesto que el cerebro es extremadamente complejo porque tiene trillones de sinapsis, billones de neuronas, miles de millones de proteínas y miles de genes. Pero estos números son finitos y la tecnología actual es altamente sofisticada, lo que nos permitiría realizar la ingeniería inversa necesaria rápidamente”, asegura el científico.

Unificando la información

Un ejemplo de la potencia tecnológica actual son los robots ya existentes, capaces de procesar información a una velocidad decenas de miles de veces más rápida que la de la mente de científicos y técnicos humanos.

Resuelto el obstáculo de la tecnología, el proyecto se enfrenta, sin embargo, a un gran desafío: el del exceso de información, porque 100 años de investigación en neurociencia han producido millones de datos y un extenso conocimiento que jamás han sido reunidos y aprovechados completamente.

Markram señala que hoy día “nadie sabe realmente lo que comprendemos ya del cerebro”. Por esa razón, “un modelo de éste serviría para reunir todos los conocimientos y permitiría probar cualquiera de las teorías que se tienen sobre su funcionamiento”.

El mayor reto es comprender cómo los patrones eléctrico-magnético-químicos de la materia gris generan nuestra percepción de la realidad. Según Markram: “creemos que vemos con los ojos, pero en realidad la mayor parte de lo que vemos es una proyección de nuestro cerebro. Por tanto, ¿qué vemos realmente cuando observamos algo que está “fuera” de nosotros?”

En los últimos 15 años, el trabajo de Markram y sus colaboradores ha consistido en recopilar cientos de miles de pequeñas porciones de datos que podrían ser reunidos en el modelo a desarrollar, para vislumbrar cómo es un microcircuito cerebral. Ésta es la parte de la investigación que, según él, es la más emocionante.

Secretos revelados

En dicho modelo se reflejarán, además de todos los datos recopilados, algunos de los secretos del cerebro humano descubiertos por los investigadores.

Por ejemplo, los científicos se han sorprendido al constatar que principios muy simples permiten a billones de neuronas interconectarse unas con otras.

Por otro lado, para la neurociencia el modelo supondrá inmensas posibilidades, afirma el científico. Entre ellas, la de entender enfermedades cerebrales (como la esquizofrenia, la depresión o el autismo) que aún no han podido comprenderse, pero que afectan a millones de personas.

Estas enfermedades provocan que circuitos, neuronas o sinapsis dejen de funcionar correctamente y, con ellos, el procesamiento de la información que llega al cerebro a través de los sentidos. En realidad, todavía no se sabe a ciencia cierta qué es lo que sucede cuando el cerebro se enferma.

Por último, el cerebro artificial tendrá la ventaja añadida de permitir que los millones de experimentos realizados con animales cada año para intentar comprender dichas enfermedades sean sustituidos por pruebas directamente efectuadas en el modelo, explica Markram.

Compleja reproducción informática

Pero, ¿qué es o en qué consistiría el cerebro artificial? El modelo del cerebro humano que pretenden crear los científicos del Proyecto Cerebro Azul será en realidad una reproducción informática altamente compleja.

Poco después del lanzamiento del Proyecto Cerebro Azul en 2005, publicamos en Tendencias21 un artículo en el que explicamos que dicho cerebro estará contenido en un superordenador, con el que se intentará desvelar los misterios del pensamiento, la percepción y la conciencia.

La intención de los científicos es crear una modelización informática de los circuitos neuronales, con la finalidad de descubrir sus mecanismos. Para ello, esta reproducción informática deberá comprender todos los niveles del cerebro, incluido el molecular.

El modelo será tridimensional y se llevará a cabo en varias fases. La primera de las fases se centrará en el neocortex, que es una de las zonas cerebrales más extensas y misteriosas del cerebro.

En la segunda de las fases se desarrollarán dos modelos más, el modelo molecular y el del sistema neocortical. El proceso concluirá con una tercera fase, en la que el modelo completo será estimulado y observado, para ver como se comportan las diferentes partes del cerebro.

La idea general es que en el proyecto se fusionen los conocimientos biológicos con los recursos informáticos, de manera que pueda realizarse a través de un programa informático un mapa detallado de los circuitos cerebrales. El cerebro artificial contará asimismo con técnicas de simulación virtual, que ofrecerán posibilidades inéditas de visualizar experiencias neuronales a nivel de microcircuitos.

Artículo original en Tendencias 21

La IEEE aprueba finalmente Wi-Fi N

por : Jesús Maturana: 12 Sep 2009, 15:22

El estándar de transmisión de datos de manera inalámbrica de alta velocidad ha sido aprobado tras 6 años de proceso y múltiples borradores, y 7 desde su creación por parte de Atheros y Broadcomm con sus dispositivos pre-N.

Se acabó la coletilla Draft y Draft 2.0 para el estándar de conexión Wi-Fi N. A partir de ahora el protocolo de transmisión 802.11n es un estándar oficial de la IEEE. Fue aprobado ayer viernes junto con Wi-Fi w, aunque, según parece, las especificaciones aprobadas no serán publicadas oficialmente hasta mediados de octubre.

Ello tiene como consecuencia directa que los productos que quieran hacer uso y recibir la certificación Wi-Fi N tendrán ya una especificación final que cumplir y no un borrador, que podía tener fallos o lagunas de información que diera lugar a dispositivos parcialmente compatibles.

Llegó la era de los 300Mbps(actualmente 802.11g, hasta 54Mbps) y los 5GHz (hasta ahora 2,4Ghz) además de MIMO y OFDM.

Artículo original en The Enquirer

sábado, 29 de agosto de 2009

WTF?!!!

¡Uy!

Ehmmm...

Obama va a disponer de su botón de pánico para Internet

por : Jesús Maturana: 29 Ago 2009, 22:46

El presidente de Estados Unidos va a disponer del poder de desconectar cualquier servidor nacional sea de la red del gobierno o de compañías privadas que se consideran de primera necesidad, telefonía, energía, agua, etcétera.

Barack Obama disfrutará de la posibilidad de contraatacar ante amenazas cibernéticas, como ataques o intrusiones en la red, desconectando los servidores para minimizar daños.

Podrá decretar un “estado de emergencia cibernética” y ordenar que se desconecte cualquier servidor nacional para prevenir ataques a través de Internet, cada día más frecuentes, y por desgracia, cada vez hacemos más uso de Internet para todo, hospedar datos, servicios online, etcétera.

Es una decisión polémica, puesto que tenemos que pensar si el uso que se da del poder es correcto, o si abusarán del mismo. Pero ante todo, es una medida a priori bastante lógica, como en cualquier tipo de contención de amenazas o problemas, el primer paso es minimizar los posibles daños.

Artículo original en The Enquirer

Fujitsu lanza un nuevo modelo de ordenador "que consume menos que una bombilla"

Fujitsu ha presentado el Futro S100, un nuevo modelo de ordenador que, asegura la compañía, reduce de manera considerable el consumo de energía. Calcula que su gasto a pleno rendimiento es de 29 watios, un coste energético sensiblemente inferior al de una bombilla tradicional. Este nuevo ordenador pertenece a los conocidos como "thin client", terminales ideados para su uso en red. Seguir leyendo el arículo

La compañía japonesa ha asegurado que el consumo de este nuevo prototipo es un 66% inferior al de los Green PC. Además, el Futro S100 puede ser montado detrás del monitor, con el ahorro de espacio que esto conlleva.

Fujitsu sostiene que los "thin client" pueden convertirse en una "alternativa eficiente" a los tradicionales PC de sobremesa. Destaca el ahorro de costes económicos que implica su uso y, además, ha creado una línea de consultoría y análisis de costes para las organizaciones interesadas en sustituir sus PC por los nuevos modelos.

Artículo original en Yahoo Noticias

Los sistemas operativos basados en Linux crecen un 23,4% en 2008

* Fecha 28-08-2009
* De Mario Alberto Sánchez

A pesar de que se espera una contracción de sucripciones en 2009, se prevé que se mantengan niveles de crecimiento cercanos al 16,9% anual hasta 2013.

Buenas noticias para la comunidad de software basado en el código abierto. Los sistemas operativos Linux crecieron un 23,4% entre 2007 y 2008. Esta tendencia se mantendrá con incrementos del 16,9% anual, según un estudio de IDC.

De confirmarse los pronósticos, este tipo de software alcanzará por primera vez 1.000 millones de dólares en ingresos en 2012, consiguiendo 1.200 en 2013. Mientras tanto, las suscripciones al sistema operativo Linux se contraerán en 2009, aunque se espera que el comportamiento cambie de cara a 2013.

A su vez, se prevé que las implementaciones no remuneradas de Linux crezcan más rápido que los nuevos abonados hasta 2013. El total combinado del servidor de suscripciones a este tipo de sistema operativo y el despliegue de las versiones no remuneradas se espera que muestren una tasa compuesta de crecimiento anual (TACC) del 1,1% en el periodo de tiempo comprendido entre 2008-2013, una cifra baja debido a la contracción prevista para 2009.

“La dinámica observada es fascinante. La convergencia de la difícil situación económica, la maduración del software de virtualización de la empresa y el uso cada vez mayor de los despliegues de réplica de los sistemas operativos del servidor Linux está dando lugar a un cambio en el éxito del mercado cada vez más definido por la base instalada más que por el número de suscriptores nuevos o despliegues realizados”, explica Al Gillen, vicepresidente de programas de software de sistemas de IDC.

Otras conclusiones del informe destacan que los mayores ingresos, nuevas suscripciones e importancia en la dinámica global del mercado los consiguen fabricantes como Red Hat y Novell, en términos operativos, con valores que oscilan entre el 43,3% y el 94,5% a nivel mundial.

“Hemos encontrado que más clientes están viendo Linux no remunerado como una solución viable para determinadas necesidades críticas de negocio. Este fenómeno no es exclusivo de Linux ya que la misma tendencia se observa en los entornos operativos de Windows”, concluye Al Gillen.

Artículo original en EWeekEurope

Los mitos de Linux son falsos

Publicado por Picajoso el 13 de August de 2008 en MuyLinux

Es algo que los linuxeros tratamos de ir cambiando, pero la reputación de este sistema operativo es desde hace años muy distinta a la que querríamos. En LinuxHaxor han realizado una recopilación de algunos de los grandes mitos que asolan a Linux desde sus orígenes y que hoy en día son prácticamente cosa del pasado, aunque con matizaciones.

El artículo original es solo la base de mis propias apreciaciones, pero en realidad las conclusiones son las mismas: los mitos de Linux deberían desaparecer ya.

1. La instalación de Linux es compleja

Lo cierto es que hace ya años que instalar prácticamente cualquier distribución de Linux (las hay más dificilillas) es una tarea asequible a cualquier usuario. El único paso en el que creo que aún hay que tener cierto cuidado es en el particionamiento del disco duro, pero los asistentes incluidos en las distribuciones ya permiten redimensionar y mover particiones de un lado a otro sin destruir los datos de particiones de Windows, así que con algo de cuidado este obstáculo es fácilmente superable. Y el resto, coser y cantar. Muchas distribuciones han apostado por el CD de instalación que en realidad es un LiveCD, de modo que podemos ir probando la distribución, navegando por Internet o jugando a algún jueguecito mientras esta se completa. Otras permiten realizar instalaciones alternativas con sistemas como Wubi, así que las opciones son casi ilimitadas en este apartado que siempre ha tratado de ponérselo fácil a los usuarios que quieren probar este S.O.

2. Hay que saber usar la consola de comandos

Mentira: los asistentes gráficos ya existen para virtualmente cualquier cosa, y aunque los linuxeros con experiencia no podrían vivir sin un buen bash a sus espaldas, todas las tareas de configuración y el uso de todo tipo de aplicaciones se realiza gracias a las interfaces gráficas que estos sistemas proponen. De hecho, la consola de comandos no es algo aislado de Linux (GNU/Linux para los puristas). Windows tiene su propia consola o su versión avanzada, llamada Powershell, y Mac OS X también presume de su propia consola gracias a su base BSD.

3. Hay que compilarlo todo

De nuevo falso: es cierto que los usuarios más puristas prefieren a menudo compilárselo todo para controlar todo el proceso de instalación de aplicaciones, pero desde hace años los gestores de paquetes hacen que los usuarios tan sólo tengan que invocar un comando de instalación de cierto paquete para instalarlo, o lo que es más fácil aún, hacer uso de los gestores gráficos (YaST en openSUSE, Synaptic en Ubuntu, etc) para instalar todo tipo de aplicaciones. La llegada del sistema PackageKit está siendo especialmente importante en la unificación de estos gestores, y si hay algo sencillo de hacer en Linux, es instalar y desinstalar aplicaciones. Y si te las quieres compilar, bajas el código fuente ¡y listo!

4. Hay pocas aplicaciones en Linux

Curiosamente, parece haber una sensación entre el público no conocedor de este sistema operativo de que una vez lo instalen no van a encontrar la aplicación que necesitan. En realidad ocurre todo lo contrario: probablemente tengan dificultades para elegir alguna de las muchas opciones que pueden resolver su problema. Si por algo se caracteriza Linux es por la gran cantidad de opciones en desarrollos software que existen para un gran número de tareas, de modo que la falta de aplicaciones no es un problema, desde luego. Lo que sí puede ocurrir es que ciertas tareas estén mejor resueltas en Windows o Mac OS X por la veteranía de los desarrolladores, e incluso puede haber aplicaciones a medida que no tengan su equivalente en el mundo Linux, pero en general si buscas, encontrarás, como demuestran los portales en los que podremos encontrar aplicaciones Windows y sus equivalentes en Linux.

5. No puedo reproducir películas

Es cierto que la mayoría de “distros” no incluyen soporte para códecs de audio y vídeo, pero los repositorios de esas distribuciones se encargan de solventar el problema. Los desarrolladores se curan en salud con temas de licencias para usar ciertos formatos no incluyéndolos de serie, pero los reproductores de Linux son capaces de descargar el códec de forma automática, y también podemos instalar soluciones como VLC, MPlayer y Xine para archivos de vídeo y Amarok, Banshee, Listen y otros muchos para resolver posibles incompatibilidades de archivos de sonido.

Así pues, parece bastante evidente que esos grandes mitos de Linux no son tan importantes como los usuarios creen, y si alguno se leyera este tipo de textos quizás le diera una oportunidad a alguna distribución. Esperemos que así sea…

Artículo original en MuyLinux

sábado, 1 de agosto de 2009

Un nuevo sistema detecta el estado mental de una persona

Los patrones de actividad neuronal permiten saber en qué piensan los humanos

Un equipo de científicos ha conseguido “leer” la mente humana con una exactitud del 80%. Lo han conseguido identificando patrones de actividad neuronal relacionados con tareas mentales como recordar o leer, lo que les permitió saber lo que hacían los participantes en un estudio antes, incluso, de que éstos fueran conscientes de lo que hacían. Los resultados obtenidos sugieren que las funciones cognitivas no están relacionadas con áreas concretas del cerebro sino más bien con patrones de actividad neuronal que se extienden por toda su superficie. Asimismo, estos resultados podrían servir en un futuro para comprender mejor las funciones mentales avanzadas, como el razonamiento abstracto, y para desarrollar diagnósticos precoces para trastornos mentales, como el autismo o la esquizofrenia. Por Yaiza Martínez.


Un equipo de científicos de las universidades estadounidenses de Rutgers y de California en Los Ángeles (UCLA) ha desarrollado un sistema que permite establecer el estado mental de una persona con una exactitud del 80%, publica la Universidad de Rutgers en un comunicado.

Ya se sabía que el cerebro percibe información antes de que seamos conscientes de ello pero, hasta ahora, no se había podido determinar qué tareas mentales específicas se estaban produciendo antes de que dichas tareas se hicieran conscientes. Esto cambiará gracias a esta “ventana” abierta al cerebro que permitirá, según los investigadores, establecer modelos más exactos de las funciones cerebrales.

Patrones de conexiones neuronales

En un artículo que aparecerá el próximo octubre en la revista Psychological Science, los científicos Stephen José Hanson, Russell A. Poldrack y Yaroslav Halchenko explican que han recopilado evidencias directas de que el estado mental de cualquier persona puede predecirse utilizando la exploración por resonancia magnética funcional o fMRI (con esta técnica se mide la respuesta hemodinámica relacionada con la actividad neuronal del cerebro).

Esto es posible porque, tal y como han revelado las investigaciones realizadas, las funciones mentales específicas (como el aprendizaje o la memoria) no se corresponden con áreas concretas del cerebro, como se había creído hasta ahora, sino con patrones de conexiones neuronales que se expanden a través del cerebro entero, y que se pueden identificar.

La presente investigación ha demostrado, por tanto, que el cerebro es más complejo de lo que se pensaba. En el análisis realizado de la actividad cerebral global, los científicos descubrieron que diversas tareas de procesamiento de información se correspondían cada una de ellas con un patrón distinto de conexiones neuronales.

Estas conexiones serían como las huellas dactilares que diferencian a un individuo del resto de los individuos, y se formarían como consecuencia de que el cerebro ordena y reordena las conexiones en función de la tarea mental realizada. Es decir, que en el cerebro no hay patrones estáticos.

Adivinar según el patrón

Según afirma Hanson en el comunicado de la Universidad de Rutgers, no se puede señalar un área específica del cerebro y afirmar que esa área es responsable del concepto de sí-mismo o de nuestra capacidad moral.

“El cerebro es mucho más complejo y flexible que eso. Tiene la capacidad de reestructurar las conexiones neuronales para funciones diversas. Examinando los patrones que surgen, se puede predecir con un alto grado de exactitud qué tarea mental concreta está procesando el cerebro de un individuo”, señala el científico.

Por lo tanto, esta investigación demuestra que si se pretende comprender la función cognitiva humana, se necesita estudiar el comportamiento neuronal a través de todo el cerebro, no analizar simples células o regiones.

Cómo se hizo el estudio

En el presente estudio participaron 130 personas adultas jóvenes y sanas, cada una de los cuales realizó una tarea mental de un total de ocho tareas posibles (como leer, memorizar una lista, tomar decisiones económicas, etc.). Durante el desarrollo de estas actividades, sus cerebros fueron sometidos a un escáner de MRI en el Ahmanson-Lovelace Brain Mapping Center de la UCLA.

Los científicos fueron capaces de identificar cuál de estas ocho tareas realizaban los voluntarios –con más de un 80% de exactitud- analizando los datos de la fMRI y comparándolos con los datos de otros individuos que anteriormente habían realizado la misma tarea.

Es decir, que cada una de las actividades realizadas generó un patrón de conexiones neuronales a través de medio millón de puntos del cerebro, y los científicos comprobaron que este patrón se repetía en cerebros distintos cuando diversos individuos realizaban una misma tarea.

Según explicó Russell A. Poldrack en otro comunicado emitido por la UCLA, las herramientas utilizadas para esta investigación pertenecen a un campo científico conocido como aprendizaje automático, relacionado con la estadística y las ciencias computacionales. Estas mismas herramientas son aprovechadas por compañías como Amazon para, por ejemplo, predecir lo que la gente comprará en función a adquisiciones realizadas previamente.

Concretamente, los científicos usaron una máquina de vectores de soporte, capaz de analizar y clasificar gran cantidad de datos, con la que pudieron identificar las diferencias sutiles entre los patrones, lo que les permitió predecir las funciones mentales asociadas a ellas.

Posibles aplicaciones

El presente estudio, publica la UCLA, es uno de los primeros que demuestra que los neurocientíficos pueden realizar este tipo de predicciones con personas “nuevas”, es decir, cuyos patrones cerebrales no se habían estudiado anteriormente. Sgún Poldrack, la investigación indicaría, por tanto, “que los cerebros de personas distintas trabajan de manera muy similar”.

Estudios previos habían podido hacer predicciones sobre el estado mental de los participantes después de haber estudiado los patrones particulares de actividad cerebral de cada uno de ellos.

Los descubrimientos realizados abren la puerta a la posibilidad de clasificar multitud de tareas mentales en función de su correspondencia con determinados patrones de actividad neuronal, lo que supondría un primer paso en la identificación de funciones mentales avanzadas, como el razonamiento abstracto.

Asimismo, podrían ayudar a desarrollar diagnósticos precoces para trastornos mentales, como el autismo o la esquizofrenia, proporcionando un medio de identificación de anomalías muy sutiles en la actividad cerebral.


Viernes 31 Julio 2009
Yaiza Martínez

Artículo original en Tendencias 21

El hacker británico ‘Solo’ más cerca de la extradición a EE.UU


por : Juan Ranchal: 01 Ago 2009, 8:00

Gary McKinnon, el hacker de los OVNIS, ha perdido un nuevo recurso para evitar la extradición a Estados Unidos, donde podría ser condenado a cadena perpetua por acceso ilegal a 97 máquinas gubernamentales pertenecientes a la NASA, el Ejército, la Marina y el Departamento de Defensa y la Fuerza Aérea.

McKinnon se declaró culpable de haber violado la ley británica de abuso informático para ser procesado en el Reino Unido y evitar ser extraditado a Estados Unidos donde le espera multas millonarias y décadas de prisión. 

Esta estrategia no ha funcionado (es el tercer recurso que pierde en diversas instancias) y el Tribunal Superior de Londres ha rechazado el recurso contra la decisión de no procesarle en su país, argumentando que la extradición es “una respuesta legal y proporcionada al delito”. 
 

“Solo” ha admitido su culpabilidad en las acusaciones de acceso no autorizado a casi un centenar de computadoras del gobierno estadounidense, aunque aseguró que únicamente buscaba información sobre OVNIS con el fin de destapar una supuesta conspiración para ocultar la visita de extraterrestres. 

A pesar de que sus abogados han detallado el autismo que sufre McKinnon para indicar su comportamiento obsesivo, la fiscalía de Estados Unidos le acusa de modificar y borrar archivos en una instalación naval poco después de los atentados del 11-S, lo que dicen dejó los sistemas inoperativos. 

Si no ocurre un milagro (todavía resta algún recurso legal), todo indica que “Solo” será extraditado y que la justicia estadounidense dará ejemplo con su caso emitiendo la mayor condena conocida a un hacker informático.

Artículo original en The Enquirer

Entra en fase operativa cable submarino intercontinental

SEACOM e Interoute

[ 31/07/2009 - 07:59 CET ] 

Entra en funcionamiento el nuevo cable submarino, una superautopista digital entre África, Europa y Asia. 

Diario Ti: SEACOM anuncia que su proyecto ha entrado en funcionamiento, el nuevo cable submarino que conecta el este y sur de África con las redes de comunicaciones de alta capacidad.

Este cable intercontinental de 17.000 kilómetros de fibra óptica enlaza con la red paneuropea de Interoute desde su llegada a tierra en Marsella (Francia) y facilita así el acceso de los países africanos a los principales centros de negocios de Europa y al resto del mundo.

El acuerdo también permite a Interoute y SEACOM generar nuevas oportunidades de negocio para las compañías de telecomunicaciones y empresas en esta zona geográfica y atender la creciente demanda de ancho de banda, que se ha disparado un 1.062% en los últimos ocho años, según datos de Internet World Stats. 

“El proyecto de SEACOM constituye un gran logro para las telecomunicaciones en África; estamos encantados de participar en él y de ofrecer conectividad con todo el mundo desde nuestras instalaciones en Marsella", afirma Gareth Williams, consejero delegado de Interoute. “El crecimiento de la demanda en África ha sido tal que muchas veces superaba la capacidad disponible, así que la construcción de este nuevo cable era crucial para el desarrollo del continente". 
El nuevo cable de fibra óptica de SEACOM discurre por la costa este de África y forma una superautopista digital que une Sudáfrica, Mozambique, Tanzania y Kenia con Europa y el Sur de Asia. Se extiende hasta Marsella, donde conecta con la red de Interoute y permite mantener comunicaciones con Europa, Norteamérica y Oriente Medio, así como acceder a la amplia oferta de servicios de Interoute para mayoristas y empresas. Este cable submarino dispone de una capacidad de 1,28 TB por segundo, adecuada para el desarrollo de servicios como la televisión de alta definición, redes P2P, IPTV y el previsible crecimiento futuro de Internet.

Artículo original en Diario TI

domingo, 12 de julio de 2009

Samsung lanza nuevos discos duros ecológicos


Al parecer el 2009 es el año de la ecología.. y es que todas las empresas están lanzando productos más y más ecológicos. Samsung Kore ha lanzado la serie de F2EG, discos duros SATA que vienen en tamaños de 500GB, 1TB y 1.5TB. Son llamados “eco-friendly” por que efectivamente están siendo fabricados con materiales que los hacen fáciles de reciclar, pero además por que también estos nuevos discos duros ayudan a reducir un 43% de energía respecto a sus competidores directos.

Fuente

Una verguenza?

Duele ver como destruímos y nos acabamos todos los regalos que Dios nos da...



Nuestros ancestros veneraban a la Madre Tierra y respetaban a todas las cosas que de alguna manera dependían de ella para poder vivir. La veneraban porque era parte de la obra del Gran Creador de todas las cosas. Así es que un pasado....no tan lejano, los bosques estaban plenos, los ríos, lagos, mares y océanos gozaban de transparencia, plenitud y abundancia prodigando alimento a aquellos que en perfecta armonía, poblaban nuestro bello planeta Tierra.... La barbarie que se vive en este país, a los que muchos llaman civilizados es una muestra más de la carencia de espíritu que vive la raza humana, al mismo tiempo estas muestras de comportamiento, son también oprtunidades para parar y reflexionar desde la profundidad de nuestras personas, las maneras, que desde el lugar que nos ocupa vivir, podemos aportar para poder contemplar nuestro derredor de una forma más humana, más caritativa, más respetuosa.



AUNQUE PAREZCA MENTIRA AÚN HOY EN DÍA SE SIGUE REALIZANDO CADA AÑO ESTA BRUTAL, DANTESCA, SANGRIENTA MASACRE EN LAS ISLAS FEROE, QUE PERTENECEN A DINAMARCA. UN PAÍS SUPUESTAMENTE 'CIVILIZADO' Y QUE PERTENECE A LA UNIÓN EUROPEA. PARA MUCHOS ES DESCONOCIDO ESTE ATENTADO A LA VIDA, A LA SENSIBILIDAD, A TODO



EN ESTA MASACRE SANGUINARIA PARTICIPAN MUCHACHOS PARA 'DEMOSTRAR' QUE ENTRAN EN LA EDAD ADULTA (¡!)



ES ABSOLUTAMENTE INCREÍBLE QUE NO SE HAGA NADA PARA EVITAR ESTA BARBARIE QUE SE COMETE CONTRA LOS CALDERONES, UN DELFÍN INTELIGENTÍSIMO QUE TIENE LA PARTICULARIDAD DE ACERCARSE A LAS PERSONAS POR PURA CURIOSIDAD





ESTO ES UNA VERGUENZA






DINAMARCA: UNA VERGUENZA, HAY QUE DIFUNDIRLO. ESPERANDO QUE LLEGUE A ALGUIEN QUE PUEDA HACER ALGO AL RESPECTO.   NO CABE DUDA QUE NO HAY PEOR BESTIA Y/O ANIMAL EN ESTE PLANETA QUE EL PROPIO SER HUMANO¡¡¡¡¡ . DIFUNDELO POR TODAS PARTES, POR FAVOR Recuerda: Tu actitud frente a la vida es la base de la felicidad.

sábado, 11 de julio de 2009

Trend Micro anuncia Endpoint Security Platform

Endpoint Security Platform es una solución modular y flexible que ofrece protección global y permite reducir el gasto de energía.

Diario Ti: Trend Micro anuncia su solución de seguridad para el puesto de trabajo denominada Trend Micro Endpoint Security Platform, esta aplicación, orientada a la gran cuenta, se ajusta a las necesidades específicas de las empresas, permitiendo que los equipos de seguridad y gestión trabajen juntos y proporcionen protección a los puestos finales, simplificando así las cuestiones relacionadas con el despliegue y la gestión de seguridad.

“Ante el panorama actual de crecimiento continuo de amenazas y otros problemas de seguridad, en Trend Micro continuamos innovando y, por ello, hemos desarrollado una solución que va más allá de nuestra tecnología antimalware, lo que permitirá a nuestros clientes tener una protección global", explica Gabriel Agatiello, Responsable de Producto Trend Micro.“El objetivo con Endpoint Security Platform es que, desde una única solución, podamos abarcar otras áreas y aportar mayor valor. Esto lo conseguimos, por ejemplo, con la gestión de parches, una necesidad recurrente en nuestros clientes que, lamentablemente, pocas empresas gestionan adecuadamente".

Endpoint Security Platform soporta un gran número de puestos de trabajo dispersos geográficamente. Capacitado para escalar hasta los 250.000 usuarios con un único servidor de gestión, su arquitectura modular permite que las empresas elijan entre una solución de seguridad especializada y altamente escalable o una solución de seguridad para el puesto de trabajo junto a la gestión de aplicaciones.

Trend Micro Endpoint Security Platform integra los siguientes módulos:

Core Protection Module: aporta prevención antimalware y limpieza. Incorpora tecnología File Reputation ofreciendo inteligencia en tiempo real para la protección de la reputación de ficheros y seguridad “in-the-cloud".

Web Protection Module: suministra protección contra las amenazas web, tanto si el usuario está dentro como fuera de la red corporativa, bloqueando el acceso a sites maliciosos e impidiendo la descarga de archivos infectados con malware.

Patch Management Module: facilita la gestión de parches para aplicaciones y sistemas operativos Microsoft, Unix, Linux y Mac, y ofrece soporte para otros proveedores de software.

Power Management Module: aplica políticas de consumo para reducir el gasto de energía y disminuir las emisiones de CO2.

Data Leak Prevention Module: asegura la privacidad y propiedad intelectual de la organización y del empleado combinando tecnología de huella dactilar y gestión de contenidos.

Fuente: Diario Ti

El nuevo iPhone puede ser intervenido en redes WLAN malignas


Dos expertos en seguridad informática, Lothar Gramelspacher y Max Moser, han revelado conductas de riesgo en la versión 3.0 del sistema operativo del iPhone en redes locales inalámbricas.

Diario Ti: Cuando un iPhone detecta una WLAN pide a la red establecer contacto con un sitio web de Apple. Si establece contacto supone que todo está funcionando correctamente. Si no obtiene respuesta en lo absoluto, supone que la WLAN no tiene conexión a Internet.

El problema surge cuando recibe otro tipo de respuesta. Entonces, la rutina WLAN del iPhone supone que se encuentra en un portal donde se pide al usuario identificarse para obtener acceso a la red. Esta es una situación típica para zonas WLAN en hoteles, cafeterías y aeropuertos.

El iPhone responde automáticamente abriendo su navegador. La idea de los creadores del sistema operativo es que el usuario pueda proporcionar sus datos de login y clave de acceso.

Según Moser y Gramelspacher, este procedimiento hace que el iPhone quede disponible para una herramienta de penetración, disponible públicamente, denominada Karmetasploit.

Esto implica que intrusos pueden instalar una WLAN, y atraer teléfonos iPhone en la medida que se acerquen y aprovechando vulnerabilidades de Safari hacerse de información almacenada en el aparato.

En su blog, Moser explica que Apple "ha caído en la vieja trampa en que la seguridad es sacrificada en beneficio de la funcionalidad". El experto propone cambiar la funcionalidad WLAN del iPhone para salvaguardar la seguridad del usuario.

Moser ha publicado un vídeo donde explica la forma de secuestrar un iPhone cuando este entra a un área cubierta por una WLAN maligna.

Fuente: Diario Ti

Androird, Sistema Operativo para móviles



Todos los rumores apuntaban a que hoy Google daría a conocer un terminal móvil que integraría sus servicios: el GPhone. Al final lo que se ha presentado es otra cosa, pero a mí me parece mucho más interesante: Android, un Sistema Operativo basado en Linux que cualquier móvil podrá utilizar, que será libre y que fomentará el desarrollo de aplicaciones hechas por los usuarios/desarrolladores externos. Si nos fijamos, es exactamente la apuesta contraria que hizo Apple, con un SO para un solo terminal, no libre y con aplicaciones cerradas: por esto muchos ya le llaman el AntiPhone.


En realidad Google no actúa sola, ha promovido una alianza entre las empresas del género, tanto fabricantes como proveedores, llamada Open Handset Alliance y que servirá para promover este SO libre que aparecerá en el mercado a finales de 2008. En realidad, esta alianza engloba a un montón de compañías diferentes, como podemos ver en su página. La lista es bastante grande, y habría que destacar a Telefónica (puntazo), T-Mobile o China Mobile entre las operadoras, LG, Motorola y Samsung entre los fabricantes/ensambladores de móviles, Nvidia, Intel y Texas como fabricantes de componentes para móviles, y Google y Ebay como creadores de servicios web/aplicaciones. Desde luego es un panorama muy interesante, y seguro que en el futuro se unen otras empresas a la alianza.

Más allá de integrar las aplicaciones basadas en Google, gracias al SDK que lanzarán portar cualquier aplicación es posible, desde Firefox hasta OpenOffice, pasando por cualquier otra aplicación que se os ocurra. Recuerdo que Ebay posee Skype, así que probablemente sea otro punto a su favor.

Aquí querría hacer un inciso, porque quizás no esté muy claro cuales pueden ser los motivos que han llevado a crear esta alianza. Desde mi humilde punto de vista, es una situación donde todos ganan (ganamos) menos los que se quedan fuera. En realidad el motivo final sería crear un SO mayoritario al estilo de Windows en los PCs, pero con la evidente ventaja que brinda la libertad.

¿Por qué un SO mayoritario sería beneficioso para todos? Para la mayoría de las empresas, que los usuarios finales compartan una misma plataforma es muy importante, simplemente porque su campo de negocio es más grande con menos esfuerzo. Puedes comparar por ejemplo los PCs o Internet con los móviles. Aunque el potencial de estos últimos es muy grande, no tener una plataforma estable les condiciona bastante, por mucha máquina virtual Java que provean. Caso por caso:

Para los fabricantes/ensambladores de móviles, los gastos en software se harán ínfimos: en vez de crear un SO casi para cada modelo, podrán usar Android y simplemente personalizarlo para cada caso. Además, ellos no tienen que depurar tanto el sistema ni arreglar todos los bugs, para eso ya es abierto. ¿Os imagináis que los diez mayores vendedores de PCs desarrollaran un SO distinto para cada modelo? Evidentemente con Android tienen mucho que ganar y muchos costes que abaratar.
Para los fabricantes de piezas para móviles, si las ventas de móviles suben, ellos tienen que vender más por defecto. Además, la situación actual no puede durar mucho, donde si queremos cambiar cierto componente de nuestro móvil tendremos que comprarnos otro. Para estos fabricantes, el paraíso estaría en una situación como los actuales PCs, donde los componentes se puedan cambiar y actualizar, implicando más ventas para ellos.
Para los creadores de software la ventaja de una plataforma estándar está clarísima: mientras menos plataformas diferentes soporten, más optimizadas estarán sus aplicaciones, más integradas con el sistema, tendrán menos fallos y su coste será menor. Además, como ya he dicho varias veces, mientras más usuarios tengan acceso a sus aplicaciones, más dinero pueden generar.
Para los proveedores (ISP) también está bastante claro: mientras más se usen los servicios adicionales de un móvil, más dinero les reportarán sus usuarios. Las ISPs quieren que estés todo el día conectado a Internet con el móvil, enviando videollamadas y comprando contenidos, y una plataforma única y aplicaciones que potencien estas características podrían ayudar en esa tarea.
Ahora, ¿por qué tiene que ser libre ese SO? Principalmente, dudo que tantas empresas hubieran aceptado la propuesta si no fuera libre. No creo que permitieran crear otra Microsoft en el campo de los móviles, dejarían demasiada responsabilidad sobre su producto a otra empresa. Sin embargo, si el sistema es libre, si algún miembro de la alianza abusara del sistema, en cualquier momento cualquiera puede crear un derivado de ese código e incluirlo en su nuevo producto. Si el sistema fuera cerrado, como por ejemplo Windows Mobile, ¿qué podrían hacer en caso de que Microsoft abusara de su posición? Pues solo tendrían dos alternativas: o seguir o empezar otro SO casi desde cero.

No sé lo que os parecerá a vosotros, pero a mí me encanta esta propuesta de Google, y con el panorama actual en los móviles puede salir muy bien. Es cierto que Nokia ya está basando su SO en Linux, pero las posibilidades de este Android me parecen mucho más jugosas. Si este proyecto logra triunfar, ya se pueden ir poniendo las pilas Windows Mobile, Symbian o el MacOS de Apple.

Fuente: Android

El nuevo sistema operativo de Google



La empresa Google se sigue expandiendo y ahora tiene planificado incursionar en el mercado del software.


Este nuevo proyecto tiene como finalidad competir directamente con la empresa de Bill Gates y su popular sistema operativo Windows.


El nombre del nuevo programa apuntará al mercado de las notebooks, y tendrá el nombre de Google Chrome OS.

Google Chrome es el nombre de su nuevo navegador que salió al mercado el año pasado, con perspectivas de competición Firefox y Opera.


En los últimos meses ha tenido un gran auge las notebooks de bajo costo, y Google apuntará a ese mercado, las computadoras personales baratas, para que de esta forma pueda llegar a más publico.

Está previsto que la nueva interfase esté pronta a medidos del año 2010.



Esa noticia abre la polémica y hace preocupar a Microsoft, ya que ésta tenía previsto lanzar su nuevo sistema operativo, llamado Windows 7, el mismo tiene la finalidad de renovar los antiguos sistemas como Windows Vista y Windows XP.


No solo la empresa de Bill Gates sufrirá una gran competencia, sino que Linux también se verá afectada.


Este nuevo producto tendrá algunas prestaciones más eficientes que sus principales competidores, como su fácil navegabilidad, su interfaz liviana, para que sus usuarios en pocos segundos accedan a las redes.


Básicamente tendrán tendencia funcional, brindando de lo básico y necesario para hacer una interfaz eficiente.

También supone un cuestionamiento a las interfaces ya existentes y al monopolio de Microsoft tan discutido y polémico.


Windows está instalado en el noventa por ciento de las computadoras del mundo, lo cual hace que este nuevo proyecto de Google sea un gran desafío.

Google Chrome OS no tendrá costo, será gratuito.

Fuente: Tecnologia

miércoles, 8 de julio de 2009

Los ordenadores que no amaban a Google

El repentino anuncio de Google del lanzamiento de un sistema operativo para ordenadores plantea muchos interrogantes sobre su viabilidad

PABLO OLIVEIRA Y SILVA - Madrid - 08/07/2009 19:58

El anuncio de Google que pone fecha al lanzamiento de su sistema operativo ha sorprendido por lo inesperado. En un momento en que la compañía del buscador se encuentra en pleno proceso de abandonar las versiones de prueba (beta) de sus numerosas aplicaciones y en la distribución de su sistema operativo para móviles, Android, la llegada de un sistema operativo para PC propio da la sensación de que la compañía se mete en camisa de once varas.

Microsoft siempre ha tenido claro que la integración del navegador en el sistema operativo era algo necesario para los usuarios, ya que la tendencia es que las aplicaciones y los datos estén estrechamente relacionados con Internet. Y Google ha sabido siempre que, tarde o temprano, tendría que vincular el inmenso abanico de aplicaciones online que parece no tener fin en un sistema operativo diseñado para la web.

Con el navegador Chrome, la compañía del buscador se metía de lleno en un terreno dominado por Microsoft y Mozilla, además de otras propuestas históricas, como Opera o Safari. Sin embargo, en menos de un año, Chrome ha conseguido una pequeña pero importante cifra en el mercado de los navegadores de Internet, cercana al 1,5%, lo que, frente a las caídas registradas por las anteriores versiones de Explorer e incluso de la última versión de Firefox es un enorme éxito.

Aunque es cuestión de tiempo y de la aceptación de los usuarios para que conozcamos si esta nueva idea de Google funciona, el Googleputer, que parte con esta ventaja, se enfrenta ahora a numerosos interrogantes.

California, tenemos un problema... muchos problemas

La experiencia que los fabricantes y distribuidores de netbooks , por un lado, y móviles, por otro, han vivido en España es clave a la hora de plantear la distribución de un nuevo sistema operativo.

Los primeros netbooks que llegaron a España integraban sistema operativo Linux, pero a los distribuidores les resultaba muy complicado convencer a los compradores para invertir en un nuevo producto que, además, integraba un sistema que el usuario no conocía. Pese al apoyo de fabricantes como Asus, HP y Dell en la integración de estos sistemas, la gran mayoría de mini-portátiles que se han vendido en España integran Windows XP. Además, muchos distribuidores aseguran que la mayoría de usuarios que adquieren un netbook con Linux, lo hacen para después instalar una copia de Windows XP y ahorrarse así el precio de un sistema operativo.

Por otro lado, Microsoft asegura que en octubre lanzará su esperado Windows 7, tras el paso del poco popular Windows Vista, que se ha demostrado completamente inútil en el sector de los ordenadores básicos, que ahora, y contra todo pronóstico, se alzan triunfales. Windows 7 traerá así una edición especial para netbooks.

Sin embargo, la experiencia con Android en el terreno de los móviles está resultando positiva, aunque de momento apenas existan referencias de dispositivos con este sistema en el mercado español. Al menos, es lo que aseguran en Vodafone que distribuye el HTC Magic, su primer móvil con Android. Un comentario que parece repetirse entre los propietarios de uno de estos terminales.

¿Depende Chrome OS del éxito de Linux?

En el mundo web 2.0 el gigante de Redmond es eso, gigante y lento. La comunidad de desarrolladores de código abierto parece desordenadamente estructurada para responder a los constantes cambios. Sin embargo, la presencia de Linux entre los hogares españoles es escasa y parece determinar el futuro que podría esperarle a Google Chrome OS.

Mientras unos aseguran que instalar, por ejemplo, Ubuntu es cuestión de unos pocos minutos, frente a las horas que se demora Windows en instalar, otros hablan de numerosos problemas por parte de Linux con los controladores de periféricos y componentes, como tarjetas gráficas. Mientras unos dicen que Microsoft es totalmente propietario, frente al aperturismo de Linux, otros inciden en la incompatibilidad de numerosos programas de Microsoft, Adobe y otros desarrolladores, en las distribuciones del sistema operativo de código abierto. Mientras unos vanaglorian la estabilidad de los Mac, otros se quejan de que se trata de un sistema operativo cerrado donde cualquier aplicación, adaptador o periférico cuesta mucho más de lo que vale.

Windows parece que tradicionalmente ha cubierto las necesidades de los usuarios. Sin embargo, la mayoría de ellos, el 99%, utilizan los ordenadores para navegar por Internet, leer y responder a mensajes de correo electrónico, chatear, administrar sus fotografías y elaborar algún documento de texto. Tareas que pueden desarrollarse en el sistema operativo más básico.

Mientras Windows Vista ha sido sentenciado como un sistema lento y que requiere infinitos recursos del ordenador, Google ha avanzado hacia la creación del "ordenador más grande del planeta". Así, no es de extrañar, que los apasionados a las teorías de la conspiración vean en la compañía del buscador al nuevo enemigo, al gigante Gran Hermano, al próximo monopolio...

Artículo original en Publico.es