sábado, 12 de septiembre de 2009

AMD modifica sistema de clasificación de procesadores

De acuerdo con Nigel Dessau, directivo del fabricante estadounidense de hardware, "el consumidor de hoy se preocupa por lo que ellos pueden hacer con su PC y no con lo que está dentro de ella". Es por ello que AMD cambió su sistema de clasificación al implementar su sistema VISION que pretende simplificar el proceso de compra de computadoras.

En esta nueva clasificación existe tres niveles. El símbolo VISION será aplicado a notebooks casuales y netbooks, lo que permitirá realizar tareas simples como navegar por la web, escuchar música, redactar textos, etc. En tanto, el segundo nivel, Vision Premium, permitirá ver videos en HD (incluyendo Blu-Rays), utilizar la webcam, jugar juegos, etc. Por último, Vision Ultimate representará el mayor grado de rapidez en el procesador, así como una tarjeta muy potente.

Artículo original en SemanaEconomica.com

Toshiba lanza discos de 1.8 pulgadas y 160GB de almacenamiento

Por Axel Marazzi el 11 de Septiembre de 2009 @ 16:16

Después de algunos días en los que Toshiba presentó sus discos de 2.5 pulgadas de 640GB y hoy se anunció que la empresa lanzó en Tokio que bate récords. La empresa presentó sus discos de 1.8 pulgadas con 160GB convirtiéndolo en los que permiten almacenar mayor cantidad de datos.

Se tratan de dispositivos de 4.200rpm que pesan 48 gr. y tienen solamente 5mm de ancho. ¿Para qué? Reproductores, MIDs, PMPs y todo tipo de dispositivos portátiles.

Además la compañía también lanzó versiones de 120GB, 80GB y 60GB y estarán disponibles desde fin de mes.

Artículo original en Gizmología

Ofrecen ideas para cobrar por noticias en internet

11 de Septiembre de 2009, 10:45am ET

NUEVA YORK (AP) - Algunas de las mayores compañías tecnológicas del mundo dicen que pueden ayudar a las compañías editoriales a cobrar exitosamente por las noticias en la internet.

IBM Corp., Microsoft Corp., Oracle Corp. e incluso Google Inc. _ una compañía a la que muchos periódicos culpan en parte por su descalabro financiero _ respondieron a un pedido de la Asociación de Periódicos de Estados Unidos de propuestas para formas de cobrar por las noticias en la red.

Pero aunque preparar la infraestructura para cobrar es una parte de la ecuación, las nuevas propuestas subrayan lo que pudiera ser el problema más obstinado: Lograr que las editoriales dejen de dar las noticias gratis en la internet.

Randy Bennett, vicepresidente de desarrollo de negocios en la asociación de periódicos, dijo que su grupo inició el proceso luego de una reunión con editoriales en mayo cerca de Chicago. Un reporte colocado en la internet el miércoles por el laboratorio de periodismo Nieman de la Universidad de Harvard incluye 11 diferentes respuestas de compañías tecnológicas.

Bennett dijo que el grupo quiere dar opciones a los periódicos, y no recomendará ninguna de propuesta más que las otras.

La propuesta de Google pudiera ser la que más llame la atención, aunque solamente porque la compañía _ que agrega miles de artículos de medios de prensa a sus páginas de noticias _ está estrechamente asociada con la idea de una internet abierta.

"Google considera que una internet abierta beneficia a usuarios y editoriales", escribe la compañía en su propuesta. "Sin embargo, abierta no significa gratis".

Google propuso ofrecer a las organizaciones de prensa una versión de su sistema Google Checkout, que es empleado para procesar pagos en la internet. Ello daría a los lectores un lugar en el que acceder a una cuenta y entonces pagar por las noticias de una serie de fuentes sin tener que colocar sus datos una y otra vez. Y la compañía dice que pudiera ofrecer a las editoriales una variedad de métodos de pago, desde subscripciones regulares hasta pagos por artículo.

Artículo original en Univision

El cerebro humano artificial será realidad en una década

Consistirá en una reproducción informática tridimensional del cerebro, en todos sus niveles

Investigadores del Brain Mind Institute de la Escuela Politécnica Federal de Lausana, en Suiza, aseguran que, en una década, estará desarrollado el primer cerebro artificial. El modelo consistirá en una compleja reproducción informática que reflejará las interacciones neuronales y otros mecanismos que posibilitan el procesamiento de la información por parte del cerebro. Este logro científico permitirá unificar todo el conocimiento acumulado por la neurociencia durante 100 años, y también vislumbrar qué sucede en el cerebro humano cuando éste se ve afectado por enfermedades que nadie comprende, pero que afectan a millones de personas. Por Yaiza Martínez.

En diez años habrá sido creado un cerebro artificial capaz de replicar las funciones del cerebro humano, afirma el neurocientífico Henry Markram del Brain Mind Institute perteneciente a la Escuela Politécnica Federal de Lausana (Suiza), en un artículo publicado por el servicio europeo de noticias AlphaGalileo.

Markram, que trabaja en el Proyecto Cerebro Azul (el Blue Brain Project ) de dicho Instituto desde hace años, señala además que un cerebro artificial es ya “técnica y biológicamente posible”, y que la única incertidumbre que queda para su desarrollo es financiera, porque el proyecto es “extremadamente caro”.

En cambio, la complejidad de la mente humana no supone una barrera para la creación de la réplica: “por supuesto que el cerebro es extremadamente complejo porque tiene trillones de sinapsis, billones de neuronas, miles de millones de proteínas y miles de genes. Pero estos números son finitos y la tecnología actual es altamente sofisticada, lo que nos permitiría realizar la ingeniería inversa necesaria rápidamente”, asegura el científico.

Unificando la información

Un ejemplo de la potencia tecnológica actual son los robots ya existentes, capaces de procesar información a una velocidad decenas de miles de veces más rápida que la de la mente de científicos y técnicos humanos.

Resuelto el obstáculo de la tecnología, el proyecto se enfrenta, sin embargo, a un gran desafío: el del exceso de información, porque 100 años de investigación en neurociencia han producido millones de datos y un extenso conocimiento que jamás han sido reunidos y aprovechados completamente.

Markram señala que hoy día “nadie sabe realmente lo que comprendemos ya del cerebro”. Por esa razón, “un modelo de éste serviría para reunir todos los conocimientos y permitiría probar cualquiera de las teorías que se tienen sobre su funcionamiento”.

El mayor reto es comprender cómo los patrones eléctrico-magnético-químicos de la materia gris generan nuestra percepción de la realidad. Según Markram: “creemos que vemos con los ojos, pero en realidad la mayor parte de lo que vemos es una proyección de nuestro cerebro. Por tanto, ¿qué vemos realmente cuando observamos algo que está “fuera” de nosotros?”

En los últimos 15 años, el trabajo de Markram y sus colaboradores ha consistido en recopilar cientos de miles de pequeñas porciones de datos que podrían ser reunidos en el modelo a desarrollar, para vislumbrar cómo es un microcircuito cerebral. Ésta es la parte de la investigación que, según él, es la más emocionante.

Secretos revelados

En dicho modelo se reflejarán, además de todos los datos recopilados, algunos de los secretos del cerebro humano descubiertos por los investigadores.

Por ejemplo, los científicos se han sorprendido al constatar que principios muy simples permiten a billones de neuronas interconectarse unas con otras.

Por otro lado, para la neurociencia el modelo supondrá inmensas posibilidades, afirma el científico. Entre ellas, la de entender enfermedades cerebrales (como la esquizofrenia, la depresión o el autismo) que aún no han podido comprenderse, pero que afectan a millones de personas.

Estas enfermedades provocan que circuitos, neuronas o sinapsis dejen de funcionar correctamente y, con ellos, el procesamiento de la información que llega al cerebro a través de los sentidos. En realidad, todavía no se sabe a ciencia cierta qué es lo que sucede cuando el cerebro se enferma.

Por último, el cerebro artificial tendrá la ventaja añadida de permitir que los millones de experimentos realizados con animales cada año para intentar comprender dichas enfermedades sean sustituidos por pruebas directamente efectuadas en el modelo, explica Markram.

Compleja reproducción informática

Pero, ¿qué es o en qué consistiría el cerebro artificial? El modelo del cerebro humano que pretenden crear los científicos del Proyecto Cerebro Azul será en realidad una reproducción informática altamente compleja.

Poco después del lanzamiento del Proyecto Cerebro Azul en 2005, publicamos en Tendencias21 un artículo en el que explicamos que dicho cerebro estará contenido en un superordenador, con el que se intentará desvelar los misterios del pensamiento, la percepción y la conciencia.

La intención de los científicos es crear una modelización informática de los circuitos neuronales, con la finalidad de descubrir sus mecanismos. Para ello, esta reproducción informática deberá comprender todos los niveles del cerebro, incluido el molecular.

El modelo será tridimensional y se llevará a cabo en varias fases. La primera de las fases se centrará en el neocortex, que es una de las zonas cerebrales más extensas y misteriosas del cerebro.

En la segunda de las fases se desarrollarán dos modelos más, el modelo molecular y el del sistema neocortical. El proceso concluirá con una tercera fase, en la que el modelo completo será estimulado y observado, para ver como se comportan las diferentes partes del cerebro.

La idea general es que en el proyecto se fusionen los conocimientos biológicos con los recursos informáticos, de manera que pueda realizarse a través de un programa informático un mapa detallado de los circuitos cerebrales. El cerebro artificial contará asimismo con técnicas de simulación virtual, que ofrecerán posibilidades inéditas de visualizar experiencias neuronales a nivel de microcircuitos.

Artículo original en Tendencias 21

La IEEE aprueba finalmente Wi-Fi N

por : Jesús Maturana: 12 Sep 2009, 15:22

El estándar de transmisión de datos de manera inalámbrica de alta velocidad ha sido aprobado tras 6 años de proceso y múltiples borradores, y 7 desde su creación por parte de Atheros y Broadcomm con sus dispositivos pre-N.

Se acabó la coletilla Draft y Draft 2.0 para el estándar de conexión Wi-Fi N. A partir de ahora el protocolo de transmisión 802.11n es un estándar oficial de la IEEE. Fue aprobado ayer viernes junto con Wi-Fi w, aunque, según parece, las especificaciones aprobadas no serán publicadas oficialmente hasta mediados de octubre.

Ello tiene como consecuencia directa que los productos que quieran hacer uso y recibir la certificación Wi-Fi N tendrán ya una especificación final que cumplir y no un borrador, que podía tener fallos o lagunas de información que diera lugar a dispositivos parcialmente compatibles.

Llegó la era de los 300Mbps(actualmente 802.11g, hasta 54Mbps) y los 5GHz (hasta ahora 2,4Ghz) además de MIMO y OFDM.

Artículo original en The Enquirer