Active Device Technologies. Semiconductor Diodes. Varactors. Schottky Diode Frequency Multipliers. Transit Time Microwave Devices. Bipolar Junction Transistors (BJTs). Heterostructure Bipolar Transistors (HBTs). Metal-Oxide-Semiconductor Field-Effect Transistors (MOSFETs). Metal Semiconductor Field Effect Ransistors (MESFETs). High Electron Mobility Transistors (HEMTs). RF Power Transistors from Wide Bandgap Materials. Tubes Jerry C. Monolithic Microwave IC Technology
lunes, 15 de febrero de 2010
Límites de la tecnología en la integración de Amplificadores de potencia para radiofrecuencia
La tecnología WiMAX extenderá la banda ancha en América Latina:
Wimax son las siglas de "Worldwide Interoperability for Microwave Access", y es la marca que certifica que un producto está conforme con los estándares de acceso inalámbrico.
Estos estándares permitirán conexiones de velocidades similares al ADSL, pero sin cables (lo cual ayudará a luchar contra el robo de cables tan común en los países hispanoamericanos), y hasta una distancia de 50-60 km. Este nuevo estándar será compatible con otros anteriores, como el de Wi-Fi.
Pese a las esperanzas que ha despertado esta tecnología, lo cierto es que el despliegue por América Latina está siendo lento y desigual, según un Informe elaborado por Mercedes Temboury y hecho público por Enter, el Centro de Análisis de la Sociedad de la Información y las Telecomunicaciones.
Wimax y 3G
En la actualidad, las redes móviles en América Latina caminan inexorablemente hacia la banda ancha. El despliegue de la tecnología 3G va, sin embargo, retrasado y muchas de las expectativas que se habían puesto en ella se han visto truncadas. Por eso, grupos de empresas y agentes del sector han visto en Wimax, al que han llamado "4G", otras posibilidades y creen que puede llegan a desplazar a un 3G que, curiosamente, no ha terminado de nacer en Latinoamérica.
Según apunta el informe, América Latina se está comportando de manera diferente a otras partes del mundo, donde el despliegue de la red UMTS/HDSPA se está haciendo de manera simultánea a la de Wimax. En América Latina, la repercusión de esta última tecnología está siendo mayor y el hecho de que en esta parte del mundo los contratos postpago sean minoría explicaría también que las inversiones en 3G hayan sido menores que en otras regiones.
En esta "competición" entre 3G y Wimax, la primera tiene una ventaja, ya que todavía no existen terminales Wimax, mientras que los 3G están ya disponibles en el mercado. A este respecto, Wimax Forum espera que los fabricantes de ordenadores empiecen a fabricar portátiles con chips híbridos (útiles para wifi y wimax) a finales de 2008.
Más portátiles
Wimax Forum es una asociación sin ánimo de lucro formada por más de 100 de empresas comprometidas con el cumplimiento del estándar IEEE 802.16.
Pese a que, en principio, se podría pensar que la apuesta por el Wimax sería amenaza para otras tecnologías, lo cierto es que, por ejemplo, las principales firmas de telefonía móvil también están desarrollando terminales capaces de conectarse a estas nuevas redes. Vodafone ha sido la última empresa en incorporarse al Wimax Forum.
Otro de los elementos que favorecerá la expansión de esta tecnología por Latinoamérica está en el hecho de que hayan crecido mucho las ventas de ordenadores portátiles en esta región: en 2006 los portátiles supusieron un 15 por 100 del total de los 21 millones de ordenadores vendidos en la región latinoamericana, pero crecieron un 85 por 100, frente a sólo el 23 por 100 de las ventas de PCs de sobremesa en el último trimestre del año.
Concesión de licencias
El estudio de Enter refleja que Wimax es ya una realidad en muchos países latinoamericanos, aunque sea de forma experimental y en áreas geográficas muy concretas. Colombia y Chile fueron las primeras naciones en adjudicar licencias. Estos dos países, junto a Argentina, van a disponer del año que viene de cobertura nacional, un plazo muy corto comparado con los tiempos invertidos en redes móviles en los años 90.
Chile, por ejemplo, ya cuenta con 30.000 usuarios, queriendo Entel, la empresa concesionaria, alcanzar los 500.000 clientes de datos móviles en 2009 En Colombia se está desplegando la red en las principales ciudades, dando servicio ya a casi 18.000 hogares en Cali. En otros países, como México o Costa Rica, se están instalando puntos de acceso en áreas metropolitanas.
La clave para que esta tecnología llegue a ser universal en Latinoamérica pasa por la estrategia que el operador norteamericano Sprint Nextel siga en Estados Unidos, por la influencia que pueda tener en el resto del continente.
Asimismo, la concesión de licencias de banda ancha en Brasil y México (y la definición de las reglas del juego en estos dos mercados) van a marcar la evolución del Wimax en los próximos dieciocho meses.
El Informe de Enter hace hincapié en la repercusión que estas nuevas tecnologías están teniendo en los medios de comunicación latinoamericanos, que se centran sobre todo en las esperanzas que ha despertado para poder reducir la brecha digital en sociedades donde la Sociedad de la Información va un paso por detrás.
Los RFIC (del inglés radio frequency integrated circuit)
La clave la integración:
Los sistemas de comunicación inalámbricas transmiten las señales a frecuencias de unos pocos GHz (usualmente entre 1 GHz y 3 GHz); en estas bandas operan sistemas y servicios cuyo impacto es significativo (Bluetooth, 2,4 GHz; UMTS, GPS, DECT, etc).
La demanda actual de estos equipos se ha satisfecho mediante sistemas MCMs, o fundamentalmente, con circuitos, tanto integrados como discretos montados sobre PCBs, basados ambos en tecnologías III-V maduras. El principal problema del uso de estos circuitos es el alto coste y el bajo volumen de producción, es muy limitado. Sin embargo, las necesidades del mercado exigen componentes de radiofrecuencia (RF) pequeños, baratos, de bajo consumo y producción masiva. De modo que los grupos de investigación y, en especial, las empresas de diseño y fabricación de sistemas para RF enfocan sus líneas de investigación para desarrollar circuitos integrados estándar de silicio: CMOS y BiCMOS. Por tanto, los dispositivos activos en estas tecnologías alcanzan las frecuencias requeridas con unas dimensiones muy pequeñas; pero surge un nuevo problema, no se dispone de inductores de calidad.
Esta carencia anteriormente citada es muy restrictiva, pues implica la adaptación de las redes a altas frecuencias mientras que no es necesario, si se está trabajando con bajas frecuencias (por ejemplo, la utilización de circuitos de adaptación de impedancia compleja). Los inductores de calidad, son componentes pasivos y necesarios para muchas otras funciones, como la polarización de transistores en amplificadores de bajo ruido (LNA) o la implementación de tanques LC (circuitos resonadores sintonizados) en osciladores. Otros componentes además de los inductores de calidad, son los varactores integrados que amplíen el rango de valores de la capacitancia sin que ello exija una gran cantidad de área para la integración.
El escalado de la tecnología CMOS (>65nm), ha permitido llegar a la integración en un solo chip de gran capacidad de procesado, comunicaciones inalámbricas (wifi, bluetooth), memoria, video, circuitos de RF, audio. Estos RFIC nos permiten disponer de terminales móviles que integran en un solo chip tecnología cuatribanda, cámara de fotos, navegador de internet, reproductor mp3, reproductor de video, agenda, etc .
La integración de la sección digital y de RF sobre un mismo substrato es un tema de gran interés en la actualidad por las diferentes dificultades que ello conlleva. La problemática de la integración de estas dos secciones tan diferentes repercute en todos los niveles de abstracción y flujos de diseño, desde el desarrollo de la arquitectura, particionado, simulación, pruebas, elección de estándares, normativas, algoritmos, protocolos de comunicación, pasando por aspectos de simulación (CAD y modelado) para la planificación y coordinación de flujos de diseño (en sus diferentes niveles de abstracción), todos estos aspectos enmarcados y delimitados por el desarrollo de la tecnología actual y futura. Por lo tanto, a pesar de las ventajas, es innegable que la tecnología CMOS sufre de una serie de limitaciones, de entre las cuales se destacan los problemas referentes a la integridad de la señal. De entre estos problemas, el ruido de conmutación puede ser considerado un factor crítico en el diseño de Circuitos Integrados. La actividad eléctrica de los nodos digitales se acopla desde la red de distribución de energía al substrato, implicando la transmisión de ruido a puntos sensibles de las secciones analógicas o de radiofrecuencia (RF), lo cual degrada notablemente sus prestaciones.
Las principales aplicaciones de los circuitos integrados de radiofrecuencia son los productos para comunicaciones inalámbricas, como por ejemplo, teléfonos móviles y PCS (servicio de comunicaciones personales: conjunto de tecnologías digitales celulares), estaciones base, redes de área local inalámbricas y módems para televisión cable.
Referencias
T. H. Lee, The Design of CMOS Radio-Frequency Integrated Circuits, USA: Cambridge University Press, Inc., 1998 ChannelPlanet.coM
Dirección URL:
http://es.wikipedia.org/wiki/RFIC
El futuro de las comunicaciones móviles:
El proyecto persigue la creación de un grupo de excelencia en Andalucía, con alto nivel de conocimiento en los subsistemas para comunicaciones inalámbricas de generaciones futuras, haciendo especial hincapié en sus aspectos no-lineales y en las mejores soluciones para evitar que éstos reduzcan la capacidad y eficiencia de dichos sistemas. El elevado interés comercial y el impacto social que estos sistemas tienen en la actualidad y que crece día a día hacen de este grupo una necesidad para poder competir en buenas condiciones en los desarrollos tecnológicos futuros en el ámbito de las Tecnologías de las Comunicaciones.
Los dispositivos activos manipulan los niveles de potencia:
Uno de los aspectos fundamentales a tener en cuenta en los futuros sistemas de comunicaciones móviles está relacionado con la eficiencia espectral de las aplicaciones. La tecnología actual permite estándares y formatos de modulación capaces de aprovechar eficientemente todo el ancho de banda reservado a un servicio. La creciente demanda implicará, no obstante, la necesidad de emigrar hacia frecuencias más elevadas, lo que sólo podrá hacerse si se desarrollan de forma pareja las técnicas de diseño de circuitos en estas bandas de frecuencia.
Cuando se emplean formatos complejos de modulación, los cabezales de transmisores y receptores deben tener una buena respuesta, no sólo en términos de potencia (que garantice el alcance de las estaciones base), y eficiencia (que proporcionen autonomía útil en equipos portátiles), sino que han de tener una respuesta con bajos niveles de distorsión no-lineal. Los fenómenos no-lineales asociados esencialmente a los elementos activos de las etapas de amplificación dan lugar a deformaciones del espectro que puede provocar, además de un aumento de la tasa de error, problemas de interferencia y, en definitiva, limitaciones en la capacidad del canal.
El otro elemento esencial en el cabezal del sistema es la antena. En la actualidad se trabaja para conseguir sistemas radiantes en un extenso ancho de banda con capacidad de amplificación integrada. Se convierte, pues, en una necesidad concebir el cabezal de radiofrecuencia de los futuros equipos como un mismo proyecto, apostando por realizaciones que combinan la no-linealidad del dispositivo con las características del sistema radiante para conseguir objetivos combinados de linealidad y directividad.
Para afrontar estos retos tecnológicos se desarrollan en la actualidad dispositivos activos (transistores) que son capaces de manipular niveles de potencia tan altos que destruirían los dispositivos convencionales. Estos nuevos dispositivos deben ser caracterizados y modelados de forma eficiente pues las técnicas convencionales no son apropiadas.
En este contexto, durante los últimos años, se ha venido desarrollando en Europa una importante labor en el marco de la Red de Excelencia TARGET (Network of Excellence, VI Frame Program, IST Programme, EU). Parte de los miembros del equipo de este proyecto participan activamente en esta Red. Como resultado de esta participación se ha llegado a un elevado nivel de conocimiento en el tema del diseño de amplificadores de potencia y al acceso a socios de toda Europa con capacidad tecnológica que puede amortizarse y mejorarse a lo largo de este proyecto.
Con dos objetivos:
El objetivo científico principal del proyecto es estudiar la distorsión no-lineal generada por el amplificador de potencia en sistemas de comunicaciones inalámbricas. Si el amplificador es no-lineal a la salida pueden aparecer componentes espectrales que no estaban en la señal de entrada y esta distorsión puede ser motivo de problemas en la comunicación. A pesar de esto y frente a los amplificadores lineales que no provocan estos problemas de distorsión, los sistemas no-lineales han demostrado ser muy eficientes, es decir, consumen menos batería mientras funcionan y esto en sistemas portátiles es un parámetro fundamental a tener en cuenta.
En segundo lugar el equipo pretende proponer soluciones a esta distorsión basadas en dos técnicas. Por un lado las técnicas de predistorsión en los terminales transmisores, que son técnicas que se anticipan a los efectos que el sistema transmisor va a producir en la señal. Un subsistema previo a la etapa de amplificación modifica la señal original de forma que la salida de la etapa amplificadora sea similar a la que se conseguiría con un sistema lineal, pero con mejor eficiencia.
Por otro, técnicas de optimización del diseño de los amplificadores de potencia que estudian el origen de los fenómenos no-lineales y buscan configuraciones de los subsistemas que garanticen un buen compromiso entre eficiencia y linealidad. Dentro de estas técnicas se encuentra el diseño apropiado de la antena, que puede ser un dispositivo integrado que funcione simultáneamente como elemento amplificador y como elemento radiante.
Actualmente diversas empresas del entorno (Centro de Tecnología de las Comunicaciones, S.A. -AT4 wireless-, Fundación Centro andaluz de Innovación y Tecnologías de la Información y las Comunicaciones, -CITIC-, TELVENT -Nasdaq, TLVT- MUD, S.A.) han mostrado interés por los resultados de este proyecto y por la formación que adquieran durante su desarrollo tanto el personal académico participante como el personal en formación.
domingo, 14 de febrero de 2010
Dispositivos activos submarinos (Sonda, Sonar)
Las pruebas llevadas a cabo ya al inicio del Siglo XX todavía no eran del todo precisas ni satisfactorias principalmente a causa de las limitaciones dadas por la tecnología utilizada en la época. Este sistema lo conocemos actualmente como sonda.
En Alemania el profesor Behm y en Estados Unidos el Canadiense Reginald Fessenden, ya trabajaban en emisores sónicos pero se daría un gran paso cuando en 1917 el francés Paul Langévin presentó un transductor que trabajaba según el principio piezo-eléctrico.
Por eso, a finales de los años veinte, la Reichsmarine empezaría a experimentar con sistemas de localización horizontales activos. Inicialmente utilizaron convertidores piezoeléctricos; las primeras pruebas las realizaron en 1932 con los sumergibles construidos para Finlandia, y más tarde utilizarían transductores magnetostrictivos.
Se llegó a un compromiso razonable utilizando la banda de frecuencias situada entre los 15 y los 20KHz (Kilo Hertzios). Alemania escogió para todos sus dispositivos la frecuencia de los 15KHz. El dispositivo emitía impulsos de unos 5Kw de intensidad de 0.02 segundos de duración. El dispositivo (conjunto emisor-receptor) recibiría el nombre de Kündhold.
Una vez conocida la posición del buque enemigo se utilizaría el Mob-S-Gerät para determinar su distancia exacta. Esto permitía que, en teoría, con pocos impulsos (en condiciones idóneas incluso con sólo uno) se pudiera determinar la distancia y de este modo minimizar el riesgo de ser detectados.
Para las mediciones de 0 a 125 metros y de 0 a 1.000 metros se utilizaba un sólo transductor de los seis que había. Para las mediciones de la escala 150-3.000 metros se utilizaban tres transmisores situados a babor y a la altura de la sala de los motores diesel. Los receptores estaban a estribor a la altura de la sala de radio.
Cuando la ambulancia se acerca, las ondas de sonido "se comprimen", aumentan de frecuencia y el tono se hace más agudo. Cuando la ambulancia se aleja, las ondas de sonido "se descomprimen", disminuyen de frecuencia y el tono se hace más grave
A diferencia del S-Gerät y del SZ-Gerät el Nibelung calculaba la distancia del objetivo electrónicamente. El sistema estaba instalado en la torreta del Tipo XXI (hacia la proa) y abarcaba un arco de unos 100 grados.
La investigación y desarrollo de los sistemas de recepción activos submarinos era responsabilidad del Nachrichtenmittelversuchsanstalt (NVA) que posteriormente, el 8 de Septiembre de 1939, pasó a llamarse Nachrichtenmittelversuchskommando (NVK) y era un departamento del OKM/Amtsgruppe Technisches Nachrichtenwesen (OKM/Nwa).
La NVA no podía probar sus equipos en las condiciones de trabajo necesarias y en Septiembre de 1936 se crearía la NEK (Nachrichtenmittelerprobungskommando) que también pasaría a estar bajo la supervisión del NVA/NVK al mando del Doctor Rudolf Kuknhold.
Los aparatos eran construidos por Electroakustik GmbH de Kiel y en Atlaswerke en Bremen. Eran instalados en los astilleros, donde había departamentos especiales dedicados a su montaje y ajuste, siguiendo las directrices dadas por el OKM.
A pesar de los excelentes sistemas de detección submarina, tanto activos como pasivos, el principal problema de los uboote era acercarse al objetivo en inmersión, problema derivado de su baja velocidad. Por ejemplo navegando a 8 nudos (un tipo VII) tardaba unas dos horas en interceptar a un convoy siempre que antes no fuera localizado por los escoltas.
Wi-Fi
Wi-Fi
siglas en inglés de Wireless Fidelity, es un sistema de envío de datos sobre redes computacionales que utiliza ondas de radio en lugar de cables, además es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11.
El nombre
Aunque se pensaba que el término viene de Wireless Fidelity como equivalente a Hi-Fi, High Fidelity, que se usa en la grabación de sonido, realmente la WECA contrató a una empresa de publicidad para que le diera un nombre a su estándar, de tal manera que fuera fácil de identificar y recordar. Phil Belanger, miembro fundador de Wi-Fi Alliance que apoyó el nombre Wi-Fi escribió
"Wi-Fi y el "Style logo" del Ying Yang fueron inventados por la agencia Interbrand. Nosotros (WiFi Alliance) contratamos Interbrand para que nos hiciera un logotipo y un nombre que fuera corto, tuviera mercado y fuera fácil de recordar. Necesitábamos algo que fuera algo más llamativo que "IEEE 802.11b de Secuencia Directa". Interbrand creó nombres como "Prozac", "Compaq", "OneWorld", "Imation", por mencionar algunas. Incluso inventaron un nombre para la compañía: VIVATO."
Phil Belanger
Estándares existentes
Artículo principal: IEEE 802.11
Existen diversos tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE 802.11 aprobado. Son los siguientes:
- Los estándares IEEE 802.11b e IEEE 802.11g disfrutan de una aceptación internacional debido a que la banda de 2.4 GHz está disponible casi universalmente, con una velocidad de hasta 11 Mbps y 54 Mbps, respectivamente.
- En la actualidad ya se maneja también el estándar IEEE 802.11a, conocido como WIFI 5, que opera en la banda de 5 GHz y que disfruta de una operatividad con canales relativamente limpios. La banda de 5 GHz ha sido recientemente habilitada y, además no existen otras tecnologías (Bluetooth, microondas, ZigBee, WUSB) que la estén utilizando, por lo tanto existen muy pocas interferencias. Su alcance es algo menor que el de los estándares que trabajan a 2.4 GHz (aproximadamente un 10%), debido a que la frecuencia es mayor (a mayor frecuencia, menor alcance).
- Un primer borrador del estándar IEEE 802.11n que trabaja a 2.4 GHz y a una velocidad de 108 Mbps. Sin embargo, el estándar 802.11g es capaz de alcanzar ya transferencias a 108 Mbps, gracias a diversas técnicas de aceleramiento. Actualmente existen ciertos dispositivos que permiten utilizar esta tecnología, denominados Pre-N.
Existen otras tecnologías inalámbricas como Bluetooth que también funcionan a una frecuencia de 2.4 GHz, por lo que puede presentar interferencias con Wi-Fi. Debido a esto, en la versión 1.2 del estándar Bluetooth por ejemplo se actualizó su especificación para que no existieran interferencias con la utilización simultánea de ambas tecnologías, además se necesita tener 40.000 k de velocidad.
Seguridad y fiabilidad
Uno de los problemas más graves a los cuales se enfrenta actualmente la tecnología Wi-Fi es la progresiva saturación del espectro radioeléctrico, debida a la masificación de usuarios, esto afecta especialmente en las conexiones de larga distancia (mayor de 100 metros). En realidad Wi-Fi está diseñado para conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance está expuesto a un excesivo riesgo de inteferencias.
Un muy elevado porcentaje de redes son instalados sin tener en consideración la seguridad convirtiendo así sus redes en redes abiertas (o completamente vulnerables a los crackers), sin proteger la información que por ellas circulan.
Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son:
- Utilización de protocolos de cifrado de datos para los estándares Wi-Fi como el WEP, el WPA, o el WPA2 que se encargan de codificar la información transmitida para proteger su confidencialidad, proporcionados por los propios dispositivos inalámbricos.
- WEP, cifra los datos en su red de forma que sólo el destinatario deseado pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de seguridad WEP. WEP codifica los datos mediante una "clave" de cifrado antes de enviarlo al aire. Este tipo de cifrado no esta muy recomendado, debido a las grandes vulnerabilidades que presenta, ya que cualquier cracker puede conseguir sacar la clave.
- WPA: presenta mejoras como generación dinámica de la clave de acceso. Las claves se insertan como de dígitos alfanuméricos, sin restricción de longitud
- IPSEC (túneles IP) en el caso de las VPN y el conjunto de estándares IEEE 802.1X, que permite la autenticación y autorización de usuarios.
- Filtrado de MAC, de manera que sólo se permite acceso a la red a aquellos dispositivos autorizados. Es lo mas recomendable si solo se va a usar con pocos equipos.
- Ocultación del punto de acceso: se puede ocultar el punto de acceso (Router) de manera que sea invisible a otros usuarios.
- El protocolo de seguridad llamado WPA2 (estándar 802.11i), que es una mejora relativa a WPA. En principio es el protocolo de seguridad más seguro para Wi-Fi en este momento. Sin embargo requieren hardware y software compatibles, ya que los antiguos no lo son.
Sin embargo, no existe ninguna alternativa totalmente fiable, ya que todas ellas son susceptibles de ser vulneradas.
Dispositivos
Existen varios dispositivos que permiten interconectar elementos Wi-Fi, de forma que puedan interactuar entre sí. Entre ellos destacan los routers, puntos de acceso, para la emisión de la señal Wi-Fi y las tarjetas receptoras para conectar a la computadora personal, ya sean internas (tarjetas PCI) o bien USB.
- Los puntos de acceso funcionan a modo de emisor remoto, es decir, en lugares donde la señal Wi-Fi del router no tenga suficiente radio se colocan estos dispositivos, que reciben la señal bien por un cable UTP que se lleve hasta él o bien que capturan la señal débil y la amplifican (aunque para este último caso existen aparatos especializados que ofrecen un mayor rendimiento).
- Los router son los que reciben la señal de la línea ofrecida por el operador de telefonía. Se encargan de todos los problemas inherentes a la recepción de la señal, incluidos el control de errores y extracción de la información, para que los diferentes niveles de red puedan trabajar. Además, el router efectúa el reparto de la señal, de forma muy eficiente.
Router WiFi.
- Además de routers, hay otros dispositivos que pueden encargarse de la distribución de la señal, aunque no pueden encargarse de las tareas de recepción, como pueden ser hubs y switches. Estos dispositivos son mucho más sencillos que los routers, pero también su rendimiento en la red de área local es muy inferior
- Los dispositivos de recepción abarcan tres tipos mayoritarios: tarjetas PCI, tarjetas PCMCIA y tarjetas USB:
Tarjeta USB para Wi-Fi.
- Las tarjetas PCI para Wi-Fi se agregan a los ordenadores de sobremesa. Hoy en día están perdiendo terreno debido a las tarjetas USB.
- Las tarjetas PCMCIA son un modelo que se utilizó mucho en los primeros ordenadores portátiles, aunque están cayendo en desuso, debido a la integración de tarjeta inalámbricas internas en estos ordenadores. La mayor parte de estas tarjetas solo son capaces de llegar hasta la tecnología B de Wi-Fi, no permitiendo por tanto disfrutar de una velocidad de transmisión demasiado elevada
- Las tarjetas USB para Wi-Fi son el tipo de tarjeta más común que existe y más sencillo de conectar a un pc, ya sea de sobremesa o portátil, haciendo uso de todas las ventajas que tiene la tecnología USB. Además, algunas ya ofrecen la posibilidad de utilizar la llamada tecnología PreN, que aún no esta estandarizada.
- También existen impresoras, cámaras Web y otros periféricos que funcionan con la tecnología Wi-Fi, permitiendo un ahorro de mucho cableado en las instalaciones de redes.
En relación con los drivers, existen directorios de "Chipsets de adaptadores Wireless"
Ventajas y desventajas
Las redes Wi-Fi poseen una serie de ventajas, entre las cuales podemos destacar:
- Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio.
- Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, no así en la tecnología por cable.
- La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con una compatibilidad total. Esto no ocurre, por ejemplo, en móviles.
Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son:
- Una de las desventajas que tiene el sistema Wi-Fi es una menor velocidad en comparación a una conexión con cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear.
- La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red inalámbrica. Este problema se agrava si consideramos que no se puede controlar el área de cobertura de una conexión, de manera que un receptor se puede conectar desde fuera de la zona de recepción prevista (e.g. desde fuera de una oficina, desde una vivienda colindante).
- Hay que señalar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc.
Referencias
- ↑ Linux wireless LAN support http://linux-wless.passys.nl
Enlaces externos
- En 2007, uno de cada dos internautas irá sin cables
- Wi-Fi Alliance (en inglés)
- Wireless Fidelity (Wi-Fi) - Specifications (en inglés)
- Sobre el significado de la denominación Wi-Fi (en inglés)
- Sobre el significado de la denominación Wi-Fi (en español, traducción parcial del artículo anterior)
- Wi-Fi de 500 km de alcance (en inglés)
- Listado de tarjetas Wi-Fi soportadas en Linux (en inglés)
- i-Wireless Proyecto que estudia las interferencias de las redes Wi-Fi.
- puntowifi.net Proyecto web sobre google maps que muestra redes wifi abiertas
- Observatorio Wireless Mapa WiFi neutral, (todos los operadores) con todos los hotspots de las principales capitales españolas
- Plan de negocios para una empresa de servicios de interconexión a internet para dispositivos móviles con tecnología WIFI
Publicación realizada por: Dirección URL:
Jhony. A. Bautista. P http://es.wikipedia.org/wiki/Wi-Fi
C.I: 18566744
Asignatura: CAF
Get news, entertainment and everything you care about at Live.com. Check it out!