miércoles, 21 de abril de 2010

LA TECNOLOGIA EN EL FUTURO





Así será la tecnología del futuro


En una decada y media,las computadoras personales podrian ser distintas a los modelos actuales. Por esas fechas, es muy probable que se haya abandonado por completo el silicio como fundameto de los más avanzados procesadores, pues no se podrán integrar más transistores en un solo chip elaborado con ese elemento. Podria comenzar entonces una nueva era de la computación, gracias al desarrollo de la nanotecnologia. Por hugo sandoval el universal.

Hoy dia todos los PC operan mediante digitos binarios conocidos como bits. El código binario es conducido a tráves de transistores: pequeños interruptores que pueden encenderse o apagarse para simbolizar series de "uno" y "ceros".

Las futuras computadoras cuánticas emplearian un fenomeno fisico conocido como "supérpocosion", donde objetos de tamaño infinitesimal, como los electrones, pueden existir en dos o mas lugares al mismo tiempo. Esto significaria que las futuras computadoras creadas por procesadores "superpuestos",podrian utlizar bits cuánticos (llamados "qubits":quantum bits). Un qubit tiene la capacidad de representar ambos estados: un "0" y un "1" en forma simultánea.

Al ser capaces de calcular cada combinación de encendido y apagado de manera paralela, las computadoras cuánticas serían increíblemente más rápidas que los procesadores actuales, pues tendrían una enorme capacidad de procesamiento. Se estiman que operarían a velocidades hasta mil veces mayores que las presentes.

Alberto Galindo, académico del departamento de fisíca teórica de la Universidad complutense de Madrid, es anfático al respecto: " Al igual que la sociedad usuaria de los mastodónticos ordenadores de finales de los 40, con miles de tubos de vacio y decenas de toneladas de peso, no se imaginaba que medio siglo después cualquier colegial dispondría de máquinas de calcular mucho más ligeras y potentes queremos pensar que el ingenio de los científicos logrará vences finalmente las dificultades para construir ordenadores cuánticos de potencia adecuada".


Entre algunas de sus principales ventajas, estos increibles equipos tendrían una potencia mucho mayor para la encriptación de información; permitirián una búsqueda más rápida de gigantescas bases de datos; posibilitarían el desarrollo de productos digitales seguros (como firmas digitales e incluso dinero electrónico a prueba de frades), y simularían complijísimos sistemas bioquímicos para el diseño de medicamentos.

La revolución nanotecnológica, se asocia, por una parte, a la "fabricación molecular" cuya viabilidad tendría un impacto enorme en nuestras vidas, en las economías, en los países y en la sociedad en general en un futuro no lejano. Entre los efectos, destacan sus potenciales impactos de la medicina, la biologia, el medioambiente´, la informática, la construcción... En la actualidad los principales avances prácticos ya se dan en algunos campos: nanopartículas, nanotubos... los progresos - más cuestionados - en materia de nanorobots y autoreproducción son objeto de polémica entre los expertos... Lo que no cabe duda es que la revolución ha comenzado. y también el debate sobre sus beneficios y riesgos. En euroresidentes queremos contribuir a difundir toda la información útil a los interesados en un tema de la mayor relevancia científica y social.






¿El próximo gran descubrimiento? El memristor, un componente microscópico que puede “recordar” los estados eléctricos incluso cuando está apagado, pero que debe resultar mucho más barato y rápido que el almacenamiento flash. Este concepto teórico que se viene desarrollando desde 1971 ahora ha sido construido en los laboratorios y ya comienza a revolucionar todo lo que conocemos de la computación; en menos de una década posiblemente hará obsoletas la memoria flash, la RAM y hasta las unidades de disco duro.
El memristor es sólo uno de los increíbles adelantos tecnológicos que están proyectando una onda expansiva por el mundo de la computación. Otras innovaciones que veremos pronto son más prácticas, pero también marcarán hitos importantes. Desde las tecnologías que por fin harán realidad la oficina sin papeles hasta las capaces de enviar electricidad a través de una habitación sin necesidad de cables, estos adelantos convertirán a la humilde PC en una cosa muy distinta al inicio de la próxima década.

En las secciones siguientes, destacamos los fundamentos de 15 tecnologías futuras, con pronósticos de lo que puede pasar con ellas. Algunas están al doblar de la esquina; otros adelantos todavía están fuera de nuestro alcance. Y a todos hay que prestarles atención...

Dentro de su PC

Un nuevo circuito innovador

Desde los albores de la electrónica, sólo hemos tenido tres tipos de componentes de circuitos: resistencias (también llamados resistores), bobinas (también llamados inductores o inductancias) y condensadores. Pero en 1971 Leon Chua, un investigador de la Universidad de California en Berkeley, teorizó la posibilidad de un cuarto tipo de componente que podría medir el flujo de corriente eléctrica: el memristor. Ahora, 37 años más tarde, Hewlett-Packard ha construido uno.

¿En qué consiste? Como su nombre implica, el memristor puede “recordar” cuánta corriente ha pasado por él. Y alternando la cantidad de corriente que pasa por él, un memristor también puede actuar como un circuito de un solo elemento con propiedades únicas. La más notable es que puede guardar su estado electrónico incluso cuando la corriente deja de circular, lo que lo hace un gran candidato para reemplazar la memoria flash de hoy.

En teoría, los memristores serán más baratos y mucho más rápidos que la memoria flash y permitirán densidades de memoria mucho mayores. También podrían reemplazar los chips de RAM que todos conocemos, para que después de que se apague la computadora recuerde exactamente lo que estaba haciendo y comience a trabajar instantáneamente. Esta reducción de costo y consolidación de componentes puede conducir a computadoras transistorizadas de bajo costo que caben en el bolsillo y que funcionan mucho más rápido que las actuales PC.

Algún día, el memristor pudiera engendrar un nuevo tipo de computadora, gracias a su capacidad para recordar toda una escala de estados eléctricos en vez de los simplistas “encendido” y “apagado” que los procesadores digitales de hoy reconocen. Trabajando con una escala dinámica de estados en un modo analógico, las computadoras basadas en memristores pudieran manejar tareas mucho más complejas que la de transportar simplemente unos y ceros.

¿Cuándo aparecerá? Los investigadores dicen que no existe ninguna barrera real para implementar inmediatamente los circuitos basados en memristores. Pero depende de la parte comercial crear productos para el mercado. Los memristores para reemplazar la memoria flash (a un costo inferior y con menos consumo de energía) probablemente aparecerán primero; la meta de HP es ofrecerlos para 2012. Más allá de ese tiempo, los memristores probablemente reemplazarán a la DRAM y a las unidades de disco duro entre el 2014 y el 2016. En cuanto a las computadoras analógicas basadas en memristores, ese paso pudiera demorar más de 20 años.

CPU con 32 núcleos bajo la cubierta

Si su CPU sólo tiene un núcleo, es oficialmente un dinosaurio. De hecho, la computación de cuádruple núcleo es ahora común: hoy en día se pueden comprar hasta PC portátiles con cuatro núcleos. Pero realmente estamos presenciando el comienzo de la guerra de los núcleos: el liderazgo en el mercado de los CPU pronto será decidido por quién tiene el mayor número de núcleos, no la velocidad de reloj más alta.

¿En qué consiste? Habiendo abandonado en gran parte la carrera por los gigahertz, Intel y AMD tratan ahora de incluir más núcleos en una pastilla o microplaqueta a fin de continuar aumentando la potencia de procesamiento y ayudar a las operaciones que implican múltiples tareas. La continua miniaturización de los chips será importante para empaquetar estos núcleos y otros componentes en un espacio limitado. En 2009, Intel producirá procesadores de 32 nanómetros (por debajo de los 45nm de los chips de hoy).

¿Cuándo aparecerá? Intel ha sido muy eficiente en ajustarse a su programa de trabajo. Un CPU de seis núcleos basado en el diseño del Itanium debe salir al mercado para cuando circule esta edición, y a partir de ese momento Intel cambiará su enfoque hacia una nueva arquitectura llamada Nehalem, que saldrá al mercado con el nombre Core i7. Core i7 tendrá hasta ocho núcleos, y los sistemas de ocho núcleos estarán disponibles para 2009 ó 2010 (y hay informes también de que un proyecto de ocho núcleos de AMD llamado Montreal aparecerá para el año 2009).

La computación de 64 bits permite más RAM

En 1986, Intel estrenó su primer CPU de 32 bits. El primer sistema operativo Windows de 32 bits –Windows NT 3.1– no salió hasta 1993, dando así oficialmente cierre a la era de los 16 bits. Ahora los procesadores de 64 bits son corrientes en los escritorios y en las portátiles, aunque Microsoft todavía no se compromete a un Windows de 64 bits. Pero no podrá vivir en el mundo de los 32 bits para siempre.

¿En qué consiste? Las versiones de 64 bits de Windows han existido desde Windows XP y los CPU de 64 bits llevan más tiempo en el mercado. De hecho, casi todas las computadoras vendidas hoy tienen un procesador de 64 bits de bajo la cubierta. En algún momento, Microsoft tendrá que abandonar los 32 bits enteramente, como hizo con los 16 bits cuando lanzó Windows NT, si quiere forzar a los consumidores (y a los desarrolladores de software y hardware) a mejorar. No es probable que suceda con Windows 7: el próximo SO ya se ha anunciado con versiones de 32 y 64 bits. Pero las limitaciones en la instalación de 32 bits tarde o tremprano forzará el cambio; los usuarios del Vista de 32 bits ya conocen el problema, pues encontraron que el SO no reconoce más de 3GB de RAM porque simplemente no tiene los bits para acceder a la memoria adicional.

¿Cuándo aparecerá? Espere ver el cambio hacia los 64 bits acelerarse con Windows 7; Microsoft probablemente optará exclusivamente por los 64 bits en Windows 8. Y esto ocurrirá para 2013, por lo menos. Mientras tanto, el Mac OS X Leopard ya es de 64 bits y algunos fabricantes de hardware actualmente tratan de hacer que sus clientes hagan la transición hacia las versiones de 64 bits de Windows (Samsung dice que empujará toda su línea de PC hacia 64 bits a principios de 2009). Y ¿qué podría esperarse de la computación de 128 bits, que representaría el próximo gran salto? Vamos a tomarlo con calma, pero no se extrañe de que ese cambio ocurra alrededor del año 2025.

Windows 7: es inevitable

No importa si a usted le encanta Vista o si lo detesta, lo cierto es que ese SO pronto pasará a mejor vida. Después de la tibia recepción que recibió Vista, Microsoft se está apresurando para presentar a su sustituto, conocido ahora como Windows 7.

¿En qué consiste? En estos momentos, Windows 7 parece ser el SO que Microsoft quería estrenar como Vista, pero le faltó tiempo o recursos para completarlo. Aparte de continuos refinamientos al sistema de seguridad del SO y a su aspecto y disposición de su entorno de funcionamiento, Windows 7 puede traer finalmente el esperado sistema de archivos WinFS que funciona como una base de datos. También se esperan mejoras de compatibilidad y desempeño con respecto a Vista.

Pero el objetivo principal de Windows 7 probablemente será mejorar la integración en línea y más funciones de computación en la nube; espere, por tanto, que Microsoft vincule aun más el SO con sus crecientes servicios Windows Live. Antes de su jubilación como presidente de Microsoft, Bill Gates sugirió que el llamado escritorio omnipresente sería uno de los objetivos de Windows 7, lo que daría a los usuarios una manera de llevar todos sus datos, configuraciones de escritorio, marcadores de página y cosas por el estilo desde una computadora a otra (si todas esas computadoras utilizan Windows 7, según se presume).

¿Cuándo aparecerá? Microsoft se ha fijado la meta de enero de 2010 para Windows 7 y la fecha oficial aún no se ha atrasado. Sin embargo, se rumora que la primera versión beta oficial saldrá antes de fin de año.

La primera mejora al USB en casi una década

El conector USB ha sido uno de los mayores éxitos en la historia de la computación, con más de 2.000 millones de dispositivos USB vendidos hasta la fecha. Pero en una época cuando las unidades de disco duro tienen terabytes de capacidad, la velocidad de 480 megabits por segundo que ofrece un dispositivo USB 2.0 no es suficiente.

¿En qué consiste? USB 3.0 (a veces llamado “SuperSpeed USB”) promete aumentar el desempeño por un factor de 10, llevando así la velocidad máxima teórica del conector a 4,8 gigabits por segundo, lo que permitiría procesar casi el equivalente de un CD-R completo cada segundo. Los dispositivos USB 3.0 utilizarán un conector ligeramente distinto, pero los puertos USB 3.0 serán compatibles con los conectores USB actuales y viceversa. USB 3.0 también está diseñado para mejorar la eficiencia de energía de los dispositivos USB, a la vez que aumenta el suministro disponible (aproximadamente un amperio, en vez de los 0,1 amperios en la versión 2.0). Esto significa tiempos de carga más cortos para su iPod, y probablemente equipos USB aun más extraños, como esos lanzacohetes de juguete y enfriadores de bebidas.

¿Cuándo aparecerá? La especificación USB 3.0 está casi terminada y se espera que los productos comerciales aparezcan en 2010. Mientras tanto, un sinfín de buses rivales –DisplayPort, eSATA y HDMI– pronto serán más comunes en las PC, impulsados en su mayor parte por el auge del vídeo de alta definición. Hasta FireWire está considerando una mejora inminente de hasta 3,2 gbps. La proliferación de puertos pudiera complicar la distribución de los puertos en el panel trasero de las nuevas PC, pero por lo menos tendrá usted una gran cantidad de opciones de alto rendimiento para conectar periféricos.

El fin de la tarjeta de gráficos autónoma

Cuando AMD compró al fabricante de tarjetas de gráficos ATI, la mayoría de los observadores presumió que la compañía comenzaría a trabajar en una fusión del CPU con la GPU. Esa labor está más adelantada de lo que usted se imagina.

¿En qué consiste? Aunque las GPU siguen acaparando casi toda la atención, las tarjetas de gráficos autónomas son raras entre los propietarios de computadoras, ya que el 75 por ciento de los usuarios portátiles se conforman con los chips de gráficos integrados, según Mercury Research. Entre las razones están el costo adicional de una tarjeta de gráficos autónoma, la instalación complicada y el desgaste de la batería. Poniendo los gráficos directamente en el CPU se eliminan los tres obstáculos.

Los fabricantes de chips esperan que el desempeño de estas GPU incluidas dentro de la pastilla esté entre el que ofrecen los actuales gráficos integrados y el de las tarjetas de gráficos autónomas, pero los expertos creen que con el tiempo el desempeño aumente y haga obsoletas las tarjetas de gráficos. Una idea posible es dedicar, por ejemplo, cuatro de los núcleos de un CPU de 16 núcleos al procesamiento de los gráficos, lo cual pudiera crear una excelente experiencia en los juegos.

¿Cuándo aparecerá? El chip Nehalem de Intel, ya inminente, incluye el procesamiento de gráficos dentro del chip, pero fuera de la pastilla del CPU. El AMD Swift (también conocido como la plataforma Shrike), el primer producto en su línea Fusion, utiliza el mismo método de diseño y también se espera para 2009.

Poner la GPU directamente en la misma pastilla del CPU presenta varios desafíos –el mayor de ellos es el exceso de temperatura– pero esto no significa que los problemas no se resolverán. Los dos sucesores del Nehalem de Intel, Auburndale y Havendale, ambos programados para finales de 2009, pudieran ser los primeros chips que pongan una GPU y un CPU en una pastilla, pero la compañía no ha dicho nada todavía.

Recargue sin cables

La transmisión inalámbrica de energía ha sido un sueño desde los tiempos de Nikola Tesla, cuando éste imaginaba un mundo lleno de enormes bobinas Tesla. Pero aparte de los adelantos en recargar los cepillos de dientes eléctricos, la energía inalámbrica no ha tenido una presencia considerable en los equipos destinados a los consumidores.

¿En qué consiste? Este verano, los investigadores de Intel demostraron un método –basado en las investigaciones de MIT– de enviar electricidad a una distancia de varios pies, sin cables y sin poner en peligro a las personas (bueno, al menos eso creen). Intel llama a esa tecnología un “vínculo inalámbrico de energía resonante”. La misma trabaja enviando una señal específica de 10 MHz a través de una bobina; una bobina cercana similar resuena a tono con la frecuencia, haciendo que los electrones fluyan por ella. Aunque el diseño es primitivo, puede iluminar una bombilla de 60 vatios con un 70 por ciento de eficiencia.

¿Cuándo aparecerá? Existen todavía numerosos obstáculos, el primero de los cuales es que el proyecto de Intel utiliza la corriente alterna. Para recargar artefactos, tendríamos que ver una versión de corriente continua y el tamaño del aparato tendría que ser apreciablemente menor. También están las barreras reguladoras que tendrían que ser rebasadas en un sistema comercial y éste tendría que ser probado exhaustivamente para demostrar su seguridad.

Suponiendo que todo vaya razonablemente bien, los circuitos receptores podrían integrar-se en la parte trasera de la pantalla de una PC portátil en los próximos seis a ocho años. Luego sería una simple cuestión de que su aeropuerto local o incluso su cafetería Starbucks ponga los transmisores de energía que son parte del sistema en las paredes para que usted pueda recibir una carga rápida sin tener que abrir el bolso de la portátil.

En su sala y más allá

Apunte, no se moleste en pulsar

Nos encanta el ratón, de verdad que sí. Pero a veces, como cuando estamos sentados en el sofá viendo un DVD en una portátil, o cuando estamos al otro lado de la sala donde una computadora reproduce música en MP3, simplemente no es conveniente arrastrar un ratón y pulsar sobre lo que queremos. Sin embargo, los intentos de reemplazar el venerable ratón –ya sea con el reconocimiento de la voz o con lectores de ondas cerebrales– han fracasado invariablemente. Ahora, sin embargo, hay una alternativa prometedora.

¿En qué consiste? Comparado con las complicaciones que implica el reconocimiento de voz, el reconocimiento de gestos es una idea relativamente simple que sólo ahora está empezando a aplicarse a la electrónica del consumidor. La idea es usar una cámara (como una Webcam portátil) que apunta al usuario y reacciona a las señales manuales del mismo. Sostener la palma de la mano plana hacia afuera significaría “parar”; por ejemplo, si está reproduciendo una película o una canción. Y mover un puño en el aire pudiera servir como puntero: usted mueve el puño a la derecha para mover el puntero a la derecha, a la izquierda para moverlo a la izquierda, etc.

¿Cuándo aparecerá? Los sistemas de reconocimiento de gestos están comenzando a salir al mercado. Toshiba, una pionera en este mercado, ya tiene por lo menos un producto, la portátil Qosmio G55, que es apto para una de las primeras versiones de esa tecnología, que puede usarse para controlar la reproducción de multimedios. La compañía también está experimentando con una versión de la tecnología para sus televisores, que se fijaría en las señales de la mano por medio de una cámara pequeña montada sobre el aparato. Pero, de acuerdo con mis pruebas, la exactitud de estos sistemas todavía deja mucho que desear.

El reconocimiento de gestos es una manera inteligente de detener momentáneamente el DVD en su portátil, pero todavía no es lo suficientemente avanzado para su adopción generalizada.

La simplificación radical llega al negocio de la TV

Detrás de la mayoría de los centros audiovisuales parece haber un nido de serpientes que daría miedo a la propia Medusa. Asimismo, ese tazón lleno de dispositivos de control remoto que descansa en su mesa de centro no es nada atractivo. Pues bien, la plataforma Tru2way puede simplificar las cosas de una vez por todas.

¿En qué consiste? ¿Quién puede olvidarse de CableCard, una tecnología que supuestamente simplificaría las instalaciones A/V de una casa, pero que finalmente no llegó a ninguna parte a pesar de la exagerada publicidad que recibió? CableCard simplemente no hizo lo suficiente y lo que ofrecía no lo hizo muy bien. Es aquí donde hace su entrada Tru2way.

Tru2way es un conjunto de servicios y normas que han sido diseñados para recoger los escombros dejados por el fiasco de CableCard, mejorando lo que la norma anterior ya podía hacer (incluida la capacidad para ciertas características de comunicación bidireccional como las guías de programación y el pago por visión que los televisores de CableCard no podían manejar) y ofrece mejor compatibilidad, más estabilidad y capacidad para aplicaciones de dos sintonizadores. Así que si usted tiene un televisor compatible con Tru2way, sólo tendrá que conectar un cable y estará listo para disfrutar de una serie de servicios de cable interactivos (entre ellos búsquedas locales, canales de noticias, compras en línea y juegos), todo sin cajas de conexión adicionales, sin controles remotos adicionales, y sin la visita de los técnicos de la compañía de cable.

¿Cuándo aparecerá? Durante todo este año se han efectuado demostraciones de aparatos con Tru2way y en EE.UU. las ciudades de Chicago y Denver serán los primeros mercados que disfrutarán de la tecnología. ¿Tiene Tru2way la oportunidad de triunfar? La mayoría de las compañías de cable importantes se han comprometido a implementarlo, al igual que numerosos fabricantes de televisores, incluidos LG, Panasonic, Samsung y Sony. Panasonic comenzó a despachar dos modelos de televisores con Tru2way en octubre y a mediados de 2009 Samsung pudiera tener televisores que usen esa tecnología.

El fin de la DRM

Aterrada por la piratería, Hollywood lleva años utilizando medios técnicos para evitar que las copias de su material aparezcan en las redes “usuario a usuario”. No ha dado resultado: las herramientas para burlar la DRM en casi todos los tipos de medios están al alcance de todos y las películas frecuentemente aparecen en BitTorrent incluso antes que en las salas de cine. Desafortunadamente para los ciudadanos cumplidores de la ley, la DRM no sirve tanto para frenar la piratería como para molestar a los usuarios honrados que quieren disfrutar de su compra en más de un dispositivo.

¿En qué consiste? No es en qué consiste, sino en qué no consiste: al eliminar la DRM ya no tendremos impedimentos para trasladar audio o vídeo desde un tipo de medios a otro. Los críticos más ardientes de la DRM sueñan con el día en que usted pueda tomar un DVD, ponerlo en una computadora y terminar con un archivo de vídeo comprimido que se pueda reproducir en cualquier dispositivo de su arsenal. Aun mejor, ni siquiera necesitará ese DVD: usted podrá pagar unos dólares por una versión no protegida de la película que podrá volver a bajar cada vez que quiera.

¿Cuándo aparecerá? Tecnológicamente hablando, no hay nada que impida a las compañías eliminar la DRM mañana mismo. Pero legal y políticamente, la resistencia persiste. La música ya hizo la transición en gran parte: Amazon y iTunes venden MP3 libres de DRM que usted puede reproducir en todos los dispositivos que quiera.

El vídeo está dando pequeños pasos en la misma dirección, aunque lentamente. Un ejemplo reciente: el software RealDVD de RealNetworks (actualmente enrollado en un litigio) permite hacer “ripping” de los DVD en la computadora con un solo pulso, pero todavía estarán protegidos por un sistema de DRM. Mientras tanto, los estudios cinematográficos están experimentando con empaquetar copias digitales legales de sus películas con los DVD, en tanto que los servicios en línea están probando maneras de permitir a los usuarios grabar en un disco una copia de una película digital que bajen desde esos servicios.

La larga marcha de Google hacia el escritorio

En caso de que no lo haya notado, Google ahora tiene sus bien financiadas manos en casi todos los rincones de la computación. Desde navegadores de la Web hasta teléfonos móviles, pronto usted podrá pasarse todo el día en el universo de Google y nunca tendrá que salir de él. ¿Dará el salto Google para construir su propio sistema operativo para la PC?

¿En qué consiste? En todo, o por lo menos así parece. Google Checkout representa una alternativa a Paypal. Street View está en camino de tomar una foto de todas las casas que hay en todas las calles de EE.UU. Y la fiesta acaba de empezar: el navegador Chrome de Google en su estado beta ganó un 1 por ciento de la cuota del mercado en sus primeras 24 horas de existencia. Android, el sistema operativo de Google para teléfonos móviles, estará llegando a los teléfonos cuando usted lea esto, lo que lo convertirá en el primer retador del iPhone que tiene posibilidades entre los clientes más avanzados.

¿Cuándo aparecerá? Aunque Google parece tener sus manos en casi todo, hay una parte considerable del mercado del software que, en opinión de muchos, Google lógicamente tratará de atacar: el sistema operativo.

El navegador Chrome es el primer dedo del pie que Google ha metido en estas aguas. Aunque un navegador es cómo los usuarios interactúan con casi todos los productos de Google, lo que relega el sistema operativo subyacente a una posición de menor importancia, Chrome de todas maneras necesita un SO para funcionar.

Para restar importancia a Microsoft, sin embargo, Google tendría que caminar por un campo de minas de controladores de dispositivos y aun así el resultado no sería una buena solución para quienes necesiten una aplicación especializada, especialmente la mayoría de los usuarios empresariales. Pero un simple SO de Google, combinado con hardware de bajo costo, podría ser algo que cambie el panorama de la PC de una forma que hasta ahora no han podido lograr empresas más pequeñas que han jugado con la idea de los sistemas operativos de código abierto.

Use cualquier teléfono en cualquier red inalámbrica

La razón por la que los teléfonos móviles son tan baratos es que las compañías telefónicas los subvencionan si usted firma un contrato a largo plazo. El acceso abierto podría cambiar drásticamente la economía del negocio de los teléfonos móviles (y de los datos móviles) cuando se desplomen las paredes que impiden que ciertos dispositivos funcionen en ciertas redes.

¿En qué consiste? Dos años es una eternidad en el mundo celular. El iPhone original se anunció, salió a la venta y se discontinuó en menos de ese tiempo y, sin embargo, los proveedores del servicio telefónico rutinariamente le piden que usted firme contratos de dos años si quiere acceso a sus teléfonos con descuento (pudiera ser peor; en otros países, tres años es lo normal). Verizon disparó la primera andanada el año pasado cuando prometió que pronto permitiría “cualquier dispositivo, cualquier aplicación” en su red, que es célebre por ser cerrada. Mientras tanto, AT&T y T-Mobile se apresuran a señalar que sus redes GSM siempre han estado “abiertas”.

¿Cuándo aparecerá? El acceso abierto ya existe de manera parcial: casi cualquier teléfono GSM desbloqueado puede usar-se hoy en AT&T o T-Mobile y en julio Verizon Wireless comenzó a certificar dispositivos de terceros para su red (aunque hasta la fecha la compañía sólo han aprobado dos productos). Pero el futuro no será color de rosa, ya que Verizon está arrastrando los pies un poco para cumplir con el requisito legal de que mantenga abierta a otros dispositivos su recién adquirida red de 700 MHz, un mandato que la FCC acordó después de un cabildeo considerable por parte de Google. Algunos han argumentado que estas provisiones de la FCC son imposibles de hacer cumplir. Sin embargo, no sabremos realmente cuán “abierta” será la nueva red hasta que comience a funcionar, posiblemente para el año 2010.

No hay comentarios:

Publicar un comentario