lunes, 15 de febrero de 2010

Límites de la tecnología en la integración de Amplificadores de potencia para radiofrecuencia

INTEGRAR los amplificadores de RF de potencia (RFPA en adelante) en tecnología CMOS es un punto clave para
conseguir reducir los costes de los equipos que integran comunicaciones móviles, especialmente si se consigue la
integración en el mismo substrato del chip en sí. Un claro ejemplo son los "System On Chip" (SOC) que integran todo el sistema completo en un único encapsulado, de hecho, en un mismo substrato, idealmente basado en tecnología CMOS (low-cost) o SiGe. Idealmente, en los SOCs se consigue integrar tanto las partes analógicas como digitales en la versátil (y barata) tecnología CMOS, disminuyendo el coste y el tamaño respecto a diseños basados tanto en tecnologías discretas como en tecnologías híbridas. No obstante, la tecnología CMOS presenta diversos problemas, por lo que en la mayoría de casos se utiliza su extensión BiCMOS, que aunque supone encarecer levemente el coste del proceso, supone mejorar considerablemente las capacidades por el hecho de añadir transistores bipolares, especialmente útiles para el procesado en corriente, que ofrece mayores prestaciones frecuenciales. Por otro lado, en el diseño de RFPAs existen numerosas limitaciones implícitas en la tecnología CMOS, que principalmente se pueden dividir en limitaciones debidas a los dispositivos activos y limitaciones debidas a los dispositivos pasivos. Dentro del primer grupo se encuentran cuestiones como la corriente máxima, la resistencia de conducción, la tensión de alimentación, la frecuencia máxima y las capacidades parásitas. Mientras que en el caso de los dispositivos pasivos aparecen limitaciones debido al nivel de integración de los condensadores (capacidad/área), a las resistencias parásitas y de pérdidas, así como a las capacidades e inductancias parásitas.
Asimismo, la comparación de los RFPAs se encuentra estrechamente relacionada con su topología (clase A, B, E, F, linc,…) tanto en lo que a eficiencia como a linealidad se refiere. Además, dependiendo del estándar de modulación utilizado la linealidad puede ser extremadamente importante o carecer de toda importancia, si se utilizan modulaciones de envolvente variable o de envolvente constante, respectivamente.
Tampoco se debe ignorar la multitud de posibilidades existentes a la hora de realizar el diseño de un RFPA,
empezando por la topología, que incluso eligiendo una aún queda un importante grado de libertad, como la tecnología a utilizar. Se puede ver en [1] que existen múltiples opciones, si bien la menos recomendable desde el punto de vista de eficiencia es la tecnología CMOS estándar, que por otro lado es la más económica. Ello supone acabar en un tradeoff entre coste y rendimiento, buscando siempre el mínimo coste para obtener el rendimiento necesario. Incluso finalmente se puede acabar realizando módulos híbridos system-in-package lo que
si bien supone una solución cara, permite optimizar las técnicas a utilizar en cada una de las partes.

 IDENTIFICACIÓN DE LIMITACIONES

A.      Dispositivos activos

En primer lugar se debe tener en cuenta que los RFPAs, presentan una potencia de salida relativamente elevada (1W) a frecuencias elevadas, lo que hace su diseño considerablemente complejo y exigente. Por otro lado, la impedancia nominal de las antenas es de 50 Ohmios, lo que implica que sería necesaria una tensión de salida eficaz de aproximadamente 7V, por lo que es necesaria una red de adaptación de impedancias, que aunque permite reducir la tensión de alimentación, supone tanto elevar las pérdidas (mayor número de componentes) como trabajar con corrientes superiores, contribuyendo así a las pérdidas por conducción globales. Es por ello que conviene trabajar con la mayor tensión disponible, algo que para las tecnologías CMOS estándar provenientes del diseño digital supone severas limitaciones, ya que tienen una tensión de ruptura reducida, y por otro lado, la tensión en los transistores puede alcanzar fácilmente el doble de la tensión de alimentación. Por otro lado, la frecuencia máxima de operación  se

encuentra directamente ligada a la capacidad de puerta, que a su vez se encuentra ligada al tamaño del dispositivo, que deberá ser grande para soportar las grandes corrientes que lo atravesarán sin suponer una caída de tensión importante en la resistencia parásita de conducción drenador-surtidor.

B.      Dispositivos pasivos

En el caso de los condensadores se pueden considerar tres problemas principalmente: 1) La densidad de capacidad, 2) la capacidad parásita a substrato, y 3) factor de calidad. Para conseguir una gran densidad de capacidad lo más
interesante es utilizar los condensadores MOS, que como contrapartida presentan unas capacidades parásitas a sustrato
Elevadas, lo que supone tanto un factor de calidad reducido como una precisión pobre, algo crítico en el diseño de RF. En el caso de los inductores podemos identificar el primer problema como el factor de calidad, que supone pérdidas de eficiencia considerables, ya sea por no comportarse como inductores ideales o simplemente por el hecho de tener una resistencia serie que disipará gran parte de la potencia en llegar a ser comparable con la resistencia de carga equivalente.

IDENTIFICACIÓN DE SOLUCIONES

A.      Dispositivos activos

Con tal de solucionar los problemas que se pueden encontrar en los dispositivos CMOS estándar aparecen
topologías alternativas, intentando solucionar el problema desde un punto de vista tanto de sistema como de dispositivo en sí. Un ejemplo del primero es el uso de tecnologías twinwell que al realizar un cascodeo de los transistores de salida, permiten el uso de tensiones más elevadas en aumentar la tensión de ruptura por la tensión de cascodeo. Un ejemplo del segundo es utilizar otras tecnologías, como los HBTs de SiGe, que como beneficio, además de una mayor frecuencia máxima también tienen que el escalado aumenta su tensión máxima en lugar de disminuirla, lo que supone que su eficiencia puede ser aumentada a cada paso de escalado, debido a la reducción de corrientes.

B.      Dispositivos pasivos

La solución general para los dispositivos pasivos pasa por la utilización de técnicas nuevas, como pueden ser la ya
conocida integración del cobre en los procesos así como el uso de dieléctricos específicos para conseguir mayores densidades de capacidad sin incurrir en corrientes de pérdidas excesivas. En el caso de los condensadores se utiliza la técnica MIM, que consiste en realizar las capacidades con dos capas de metal separadas por un dieléctrico (diferente del dióxido de silicio) en capas alejadas del substrato, lo que supone que al mismo tiempo se puede controlar la corriente de pérdidas así como la densidad de capacidad, y principalmente reducir la capacidad parásita a substrato.

Respecto a los inductores, la inclusión de cobre y la utilización de silicio altamente resistivo permite elevar el
factor de calidad hasta poco más de 40 comparado con el  factor 10 de la tecnología de aluminio estándar (@1nH
aproximadamente). El mejor factor de calidad se consigue mediante la utilización de la técnica de micromatching, que permite llegar a factores de calidad de aproximadamente 70 o incluso haciendo uso de los bonding-inductors . No obstante, estas últimas técnicas no pueden ser para nada consideradas como estándar, lo que descarta su uso masivo, al menos por ahora.

 COMENTARIOS SOBRE EL ITRS 2003

En el ITRS de 2003 [4] avanzan la necesidad de migrar de los simples módulos integrados a módulos system-in-package (SIP) que deberán contener toda la parte de RF (2005-2007) e incluso la parte de procesado en banda base (2008-2009). Por otro lado, la frecuencia mínima de los sistemas se mantiene en 800MHz, llegando la máxima hasta los 6GHz (WLAN) en 2004-2006 y los 10GHz para 2007-2009.

 Si se hace una separación de los requerimientos por tecnologías:

A.      Grupos III-V (GaAs)

En el caso de los HBTs, dadas sus elevadas tensiones de ruptura, no presentan problemas hasta 2006, en que se
aparecen problemas de reducción de área, y ya en 2007 y posteriores, en que las mejoras necesarias relativas a tensión de ruptura, frecuencia máxima y eficiencia lineal empiezan a ser importantes. Respecto a la integración de la parte de RF en un SIP es crítica la decisión para 2006+ de integrar el filtro duplexor, cuya implementación en tecnología GaAs es aún desconocida. En el caso de los PHEMTs aparece un panorama muy similar al anterior, si bien en este caso se añade el conmutador recepción/transmisión a partir del 2005, al que sí que se conoce una solución posible, a pesar de no ser de uso extendido. Los problemas en la integración de pasivos surgen a partir
de 2006, cuando el factor de calidad de los inductores debe aumentarse a 25, algo que si bien se conoce cómo debe
hacerse, no es una solución estándar, y por tanto, más cara. Igualmente por parte de los condensadores el problema es la densidad de capacidad, que también debe elevarse, lo que supone, igual que sucedía con los inductores, soluciones no estándar.

B.      Grupo IV

Para los MOSFET aparecen problemas debido a la elevada tensión de ruptura requerida para las pequeñas dimensiones de los dispositivos (Tox=45Å) así como debidas a la eficiencia lineal, intrínsecamente relacionada con la resistencia parásita del dispositivo.

Respecto a la integración, no presentan ningún problema en incorporar las partes de power management si bien a partir del 2006 establecen la integración del conmutador RX/TX así como los filtros, que aunque estiman su realización mediante MEMS, aún es algo que se desconoce, como sucedía con la integración en los grupos III-V.
Para los HBTs aparecen múltiples problemas: frecuencia máxima, tensión de ruptura, y eficiencia, si bien comenta que se conoce su solución. Por otro lado, su integración tiene el mismo problema que
en todos los casos anteriores a partir del 2006, y es que igual que sucedía con tecnología MOS estándar, se estima necesaria la implementación tanto del conmutador RX/TX como de los filtros con MEMS, tratándose de soluciones desconocidas. Considerando los pasivos para la tecnología de silicio, no se exige factores de calidad en los inductores mayores a 10 hasta el 2006, en el que se pasa a requerir un factor 14, que si bien se conoce cómo conseguirlo, no es de utilización habitual. Es problema más grave la necesidad de densidades de capacidad elevadas a partir del 2006, llegando hasta 30fF/μm2 en el 2008, para lo que aún no existe solución conocida. Respecto a los HBTs, dadas sus elevadas tensiones de ruptura, no presentan problemas hasta 2006, en que se hacen patentes los problemas de reducción de área, y en 2007 y posteriores, en que las mejoras necesarias empiezan a ser importantes relativas a tensión de ruptura, frecuencia máxima y eficiencia (para un lineal). Respecto a la integración de la parte de RF en un SIP es crítica la decisión para 2006+ de integrar el filtro duplexor, cuya implementación en tecnología de silicio es aún desconocida.


REFERENCIAS

[1] H.S. Bennett et Al. "Device and Technology Evolution for Si-Based RF
Integrated Circuits", IEEE Transactions on electron devices, vol. 52, no.
7, pp. 1235-1258, July 2005
[2] C.Yoo and Q.Huang, "A Common-Gate Switched 0.9-W Class-E Power
Amplifier with 41% PAE in 0.25-m CMOS," IEEE Journal of Solid
State Circuits, vol. 36, no. 5, pp. 823-830, May2001.
[3] J.Craninckx and M.S.J.Steyaert, "A 1.8-GHz CMOS Low-Phase-Noise
Voltage-Controlled Oscillator with Prescaler," IEEE Journal of Solid
State Circuits, vol. 30, no. 12, pp. 1474-1482, Dec.1995.
[4] ITRS-2003, table 55ª


Publicación realizada por:                                      
Jhony. A Bautista. P                               
C.I: 18566744
Dirección URL:
http://www.google.co.ve/search?hl=es&source=hp&q=L%C3%ADmites+de+la+tecnolog%C3%ADa+en+la+integraci%C3%B3n+de&btnG=Buscar+con+Google&meta=&aq=f&oq=
 

La tecnología WiMAX extenderá la banda ancha en América Latina:

Latinoamérica ha puesto todas sus esperanzas para la universalización de la banda ancha en la tecnología Wimax, el nuevo estándar de banda ancha. Wimax permite conexiones parecidas a las de la ADSL y en distancias de entre 50 y 60 kilómetros. Según apunta un estudio llevado a cabo por Enter, la expansión de esta tecnología está siendo todavía muy desigual en América Latina, donde, sin embargo, está ganando la lucha contra otras tecnologías, como la 3G. Colombia y Chile han sido pioneros en su implantación, pero parte de su futuro pasará por las decisiones que vayan tomando al respecto países con más peso y más influyentes como el brasileño y el mexicano.

El nuevo estándar inalámbrico para banda ancha Wimax está siendo visto en América Latina como una gran oportunidad para que la banda ancha llegue a ser un servicio universal y barato.
Wimax son las siglas de "Worldwide Interoperability for Microwave Access", y es la marca que certifica que un producto está conforme con los estándares de acceso inalámbrico.

Estos estándares permitirán conexiones de velocidades similares al ADSL, pero sin cables (lo cual ayudará a luchar contra el robo de cables tan común en los países hispanoamericanos), y hasta una distancia de 50-60 km. Este nuevo estándar será compatible con otros anteriores, como el de Wi-Fi.
Pese a las esperanzas que ha despertado esta tecnología, lo cierto es que el despliegue por América Latina está siendo lento y desigual, según un Informe elaborado por Mercedes Temboury y hecho público por Enter, el Centro de Análisis de la Sociedad de la Información y las Telecomunicaciones.

Wimax y 3G

En la actualidad, las redes móviles en América Latina caminan inexorablemente hacia la banda ancha. El despliegue de la tecnología 3G va, sin embargo, retrasado y muchas de las expectativas que se habían puesto en ella se han visto truncadas. Por eso, grupos de empresas y agentes del sector han visto en Wimax, al que han llamado "4G", otras posibilidades y creen que puede llegan a desplazar a un 3G que, curiosamente, no ha terminado de nacer en Latinoamérica.

Según apunta el informe, América Latina se está comportando de manera diferente a otras partes del mundo, donde el despliegue de la red UMTS/HDSPA se está haciendo de manera simultánea a la de Wimax. En América Latina, la repercusión de esta última tecnología está siendo mayor y el hecho de que en esta parte del mundo los contratos postpago sean minoría explicaría también que las inversiones en 3G hayan sido menores que en otras regiones.

En esta "competición" entre 3G y Wimax, la primera tiene una ventaja, ya que todavía no existen terminales Wimax, mientras que los 3G están ya disponibles en el mercado. A este respecto, Wimax Forum espera que los fabricantes de ordenadores empiecen a fabricar portátiles con chips híbridos (útiles para wifi y wimax) a finales de 2008.

Más portátiles

Wimax Forum es una asociación sin ánimo de lucro formada por más de 100 de empresas comprometidas con el cumplimiento del estándar IEEE 802.16.
Pese a que, en principio, se podría pensar que la apuesta por el Wimax sería amenaza para otras tecnologías, lo cierto es que, por ejemplo, las principales firmas de telefonía móvil también están desarrollando terminales capaces de conectarse a estas nuevas redes. Vodafone ha sido la última empresa en incorporarse al Wimax Forum.

Otro de los elementos que favorecerá la expansión de esta tecnología por Latinoamérica está en el hecho de que hayan crecido mucho las ventas de ordenadores portátiles en esta región: en 2006 los portátiles supusieron un 15 por 100 del total de los 21 millones de ordenadores vendidos en la región latinoamericana, pero crecieron un 85 por 100, frente a sólo el 23 por 100 de las ventas de PCs de sobremesa en el último trimestre del año.

Concesión de licencias

El estudio de Enter refleja que Wimax es ya una realidad en muchos países latinoamericanos, aunque sea de forma experimental y en áreas geográficas muy concretas. Colombia y Chile fueron las primeras naciones en adjudicar licencias. Estos dos países, junto a Argentina, van a disponer del año que viene de cobertura nacional, un plazo muy corto comparado con los tiempos invertidos en redes móviles en los años 90.

Chile, por ejemplo, ya cuenta con 30.000 usuarios, queriendo Entel, la empresa concesionaria, alcanzar los 500.000 clientes de datos móviles en 2009 En Colombia se está desplegando la red en las principales ciudades, dando servicio ya a casi 18.000 hogares en Cali. En otros países, como México o Costa Rica, se están instalando puntos de acceso en áreas metropolitanas.

La clave para que esta tecnología llegue a ser universal en Latinoamérica pasa por la estrategia que el operador norteamericano Sprint Nextel siga en Estados Unidos, por la influencia que pueda tener en el resto del continente.

Asimismo, la concesión de licencias de banda ancha en Brasil y México (y la definición de las reglas del juego en estos dos mercados) van a marcar la evolución del Wimax en los próximos dieciocho meses.
El Informe de Enter hace hincapié en la repercusión que estas nuevas tecnologías están teniendo en los medios de comunicación latinoamericanos, que se centran sobre todo en las esperanzas que ha despertado para poder reducir la brecha digital en sociedades donde la Sociedad de la Información va un paso por detrás.

Publicación realizada por:
           Jhony. A. Bautista. P
           C.I: 18566744
           Asignatura: CAF

Dirección URL:
http://www.umtsforum.net/mostrar_articulos.asp?u_action=display&u_log=212

Los RFIC (del inglés radio frequency integrated circuit)

son circuitos integrados que trabajan en el rango de ondas de radiofrecuencia.

                                             
                                      
                                        RFIC CMOS LNA (amplificador de bajo ruido).

La electrónica actual tiene una fuerte tendencia al empleo de las tecnologías inalámbricas, en las cuales se conjuga toda la potencialidad del procesado digital y analógico, para altas frecuencias, en un mismo sistema. Estos sistemas integrados requieren bajo coste, bajo consumo, altas prestaciones y tamaño reducido, en donde el papel que juega la tecnología CMOS es vital para la expansión de los sistemas inalámbricos.
Historia:
En los últimos años la tecnología CMOS ha evolucionado notablemente logrando mejoras en los niveles de integración y velocidad de proceso, esto aunado a su bajo coste ha permitido la integración de procesadores digitales junto con el procesado analógico de la señal, dando lugar a la implementación de circuitos integrados de modo mixto. Por su parte, los circuitos integrados de Radio Frecuencia (RF) han sufrido un explosivo crecimiento por su extensa aplicación en sistemas de comunicación y equipos inalámbricos. Con respecto a los problemas tecnológicos, que se derivan de la implementación de estos sistemas en tecnología CMOS, cabe destacar el trabajo realizado por Thomas H. Lee, a él se le deben numerosas contribuciones teóricas de tecnología y diseño en este campo.
 

Circuitos Activos y Pasivos de Microondas
Los circuitos de microondas están divididos en dos grandes grupos: circuitos activos y circuitos pasivos. Los circuitos pasivos no agregan potencia a la señal que reciben, mientras que los activos sí que pueden agregarla. Los circuitos pasivos incluyen desde elementos discretos como resistencias, inductancias y capacitancias hasta circuitos mas complejos, tales como: Filtros, divisores, combinadores, duplexores, circuladores, atenuadores, líneas de transmisión... Entre los circuitos que pueden ser tanto activos como pasivos, están las antenas, multiplexores, mezcladores... Dentro de los circuitos activos se encuentran los RFICs, diodos, MMICs, receptores, moduladores, osciladores...
 
La clave la integración:
Los sistemas de comunicación inalámbricas transmiten las señales a frecuencias de unos pocos GHz (usualmente entre 1 GHz y 3 GHz); en estas bandas operan sistemas y servicios cuyo impacto es significativo (Bluetooth, 2,4 GHz; UMTS, GPS, DECT, etc).
La demanda actual de estos equipos se ha satisfecho mediante sistemas MCMs, o fundamentalmente, con circuitos, tanto integrados como discretos montados sobre PCBs, basados ambos en tecnologías III-V maduras. El principal problema del uso de estos circuitos es el alto coste y el bajo volumen de producción, es muy limitado. Sin embargo, las necesidades del mercado exigen componentes de radiofrecuencia (RF) pequeños, baratos, de bajo consumo y producción masiva. De modo que los grupos de investigación y, en especial, las empresas de diseño y fabricación de sistemas para RF enfocan sus líneas de investigación para desarrollar circuitos integrados estándar de silicio: CMOS y BiCMOS. Por tanto, los dispositivos activos en estas tecnologías alcanzan las frecuencias requeridas con unas dimensiones muy pequeñas; pero surge un nuevo problema, no se dispone de inductores de calidad.
Esta carencia anteriormente citada es muy restrictiva, pues implica la adaptación de las redes a altas frecuencias mientras que no es necesario, si se está trabajando con bajas frecuencias (por ejemplo, la utilización de circuitos de adaptación de impedancia compleja). Los inductores de calidad, son componentes pasivos y necesarios para muchas otras funciones, como la polarización de transistores en amplificadores de bajo ruido (LNA) o la implementación de tanques LC (circuitos resonadores sintonizados) en osciladores. Otros componentes además de los inductores de calidad, son los varactores integrados que amplíen el rango de valores de la capacitancia sin que ello exija una gran cantidad de área para la integración.
El escalado de la tecnología CMOS (>65nm), ha permitido llegar a la integración en un solo chip de gran capacidad de procesado, comunicaciones inalámbricas (wifi, bluetooth), memoria, video, circuitos de RF, audio. Estos RFIC nos permiten disponer de terminales móviles que integran en un solo chip tecnología cuatribanda, cámara de fotos, navegador de internet, reproductor mp3, reproductor de video, agenda, etc .

Bluetooth es un estandar de conectividad wireless que provee comunicaciones de voz y datos de bajo coste para enlazar teléfonos móviles PDA, PC, cámaras digitales y otros dispositivos portátiles. Está tecnología trabaja a 2.4 GHz. Los dispositivos Bluetooth operan en tres clases de potencia. La clase 2 opera a 0 dBm, la clase 2 opera a 4 dBm y la clase 1 opera a 20 dBm. Todas ellas transmite datos a 1 Mbps y la última generación oscila entre 2 y 12 Mbps.

                                                 +

                                                     Amplificador de potencia CMOS


Por lo tanto estos dispositivos deben ser capaces de controlar la potencia desde 20 dBm hasta 0 dBm, Bluetooth habilita este control de potencia optimizándola con LMP (Link Manager Protocol). Consiste en medir la señal recibida (RSSI) y reportando si la señal debe ser amplificada o no. Bluetooth además es considerado un estandar de bajo coste, y lo consigue gracias a la tecnología CMOS. CMOS es usado en esta tecnología como amplificadores de potencia, a continuación se muestra un esquema de un amplificador de este tipo

Problemas de diseño
La integración de la sección digital y de RF sobre un mismo substrato es un tema de gran interés en la actualidad por las diferentes dificultades que ello conlleva. La problemática de la integración de estas dos secciones tan diferentes repercute en todos los niveles de abstracción y flujos de diseño, desde el desarrollo de la arquitectura, particionado, simulación, pruebas, elección de estándares, normativas, algoritmos, protocolos de comunicación, pasando por aspectos de simulación (CAD y modelado) para la planificación y coordinación de flujos de diseño (en sus diferentes niveles de abstracción), todos estos aspectos enmarcados y delimitados por el desarrollo de la tecnología actual y futura. Por lo tanto, a pesar de las ventajas, es innegable que la tecnología CMOS sufre de una serie de limitaciones, de entre las cuales se destacan los problemas referentes a la integridad de la señal. De entre estos problemas, el ruido de conmutación puede ser considerado un factor crítico en el diseño de Circuitos Integrados. La actividad eléctrica de los nodos digitales se acopla desde la red de distribución de energía al substrato, implicando la transmisión de ruido a puntos sensibles de las secciones analógicas o de radiofrecuencia (RF), lo cual degrada notablemente sus prestaciones.
 
 Aplicaciones
Las principales aplicaciones de los circuitos integrados de radiofrecuencia son los productos para comunicaciones inalámbricas, como por ejemplo, teléfonos móviles y PCS (servicio de comunicaciones personales: conjunto de tecnologías digitales celulares), estaciones base, redes de área local inalámbricas y módems para televisión cable.

Referencias
T. H. Lee, The Design of CMOS Radio-Frequency Integrated Circuits, USA: Cambridge University Press, Inc., 1998 ChannelPlanet.coM

Dirección URL:
http://es.wikipedia.org/wiki/RFIC


Publicación realizada por:
           Jhony. A. Bautista. P
           C.I: 18566744
           Asignatura: CAF

 

El futuro de las comunicaciones móviles:


Una de las aspiraciones de los diseñadores de equipos portátiles de comunicaciones es que sean útiles en entornos cada vez más amplios y para un mayor número de aplicaciones simultáneas. Los futuros interfaces para comunicaciones móviles deberán ser útiles en cualquier punto del globo y no sólo para telefonía (de voz o datos) sino que deberán servir para adaptarse a diferentes estándares (GSM, UMTS, etc.), proporcionar servicios como la navegación asistida por satélite o permitir el enlace con redes de área local, enlaces WiMAX o Bluetooth, y coexistir con cualquier otro estándar de comunicaciones entre suministradores y usuarios que puede demandar elevadas tasas de transmisión  de datos.
El proyecto persigue la creación de un grupo de excelencia en Andalucía, con alto nivel de conocimiento en los subsistemas para comunicaciones inalámbricas de generaciones futuras, haciendo especial hincapié en sus aspectos no-lineales y en las mejores soluciones para evitar que éstos reduzcan la capacidad y eficiencia de dichos sistemas. El elevado interés comercial y el impacto social que estos sistemas tienen en la actualidad y que crece día a día hacen de este grupo una necesidad para poder competir en buenas condiciones en los desarrollos tecnológicos futuros en el ámbito de las Tecnologías de las Comunicaciones.

Los dispositivos activos manipulan los niveles de potencia: 
Uno de los aspectos fundamentales a tener en cuenta en los futuros sistemas de comunicaciones móviles está relacionado con la eficiencia espectral de las aplicaciones. La tecnología actual permite estándares y formatos de modulación capaces de aprovechar eficientemente todo el ancho de banda reservado a un servicio. La creciente demanda implicará, no obstante, la necesidad de emigrar hacia frecuencias más elevadas, lo que sólo podrá hacerse si se desarrollan de forma pareja las técnicas de diseño de circuitos en estas bandas de frecuencia.
Cuando se emplean formatos complejos de modulación, los cabezales de transmisores y receptores deben tener una buena respuesta, no sólo en términos de potencia (que garantice el alcance de las estaciones base), y eficiencia (que proporcionen autonomía útil en equipos portátiles), sino que han de tener una respuesta con bajos niveles de distorsión no-lineal. Los fenómenos no-lineales asociados esencialmente a los elementos activos de las etapas de amplificación dan lugar a deformaciones del espectro que puede provocar, además de un aumento de la tasa de error, problemas de interferencia y, en definitiva, limitaciones en la capacidad del canal.
El otro elemento esencial en el cabezal del sistema es la antena. En la actualidad se trabaja para conseguir sistemas radiantes en un extenso ancho de banda con capacidad de amplificación integrada. Se convierte, pues, en una necesidad concebir el cabezal de radiofrecuencia de los futuros equipos como un mismo proyecto, apostando por realizaciones que combinan la no-linealidad del dispositivo con las características del sistema radiante para conseguir objetivos combinados de linealidad y directividad.
Para afrontar estos retos tecnológicos se desarrollan en la actualidad dispositivos activos (transistores) que son capaces de manipular niveles de potencia tan altos que destruirían los dispositivos convencionales. Estos nuevos dispositivos deben ser caracterizados y modelados de forma eficiente pues las técnicas convencionales no son apropiadas.
En este contexto, durante los últimos años, se ha venido desarrollando en Europa una importante labor en el marco de la Red de Excelencia TARGET (Network of Excellence, VI Frame Program, IST Programme, EU). Parte de los miembros del equipo de este proyecto participan activamente en esta Red. Como resultado de esta participación se ha llegado a un elevado nivel de conocimiento en el tema del diseño de amplificadores de potencia y al acceso a socios de toda Europa con capacidad tecnológica que puede amortizarse y mejorarse a lo largo de este proyecto.


Con dos objetivos:
El objetivo científico principal del proyecto es estudiar la distorsión no-lineal generada por el amplificador de potencia en sistemas de comunicaciones inalámbricas. Si el amplificador es no-lineal a la salida pueden aparecer componentes espectrales que no estaban en la señal de entrada y esta distorsión puede ser motivo de problemas en la comunicación. A pesar de esto y frente a los amplificadores lineales que no provocan estos problemas de distorsión, los sistemas no-lineales han demostrado ser muy eficientes, es decir, consumen menos batería mientras funcionan y esto en sistemas portátiles es un parámetro fundamental a tener en cuenta.
En segundo lugar el equipo pretende proponer soluciones a esta distorsión basadas en dos técnicas. Por un lado las técnicas de predistorsión en los terminales transmisores, que son técnicas que se anticipan a los efectos que el sistema transmisor va a producir en la señal. Un subsistema previo a la etapa de amplificación modifica la señal original de forma que la salida de la etapa amplificadora sea similar a la que se conseguiría con un sistema lineal, pero con mejor eficiencia.
Por otro, técnicas de optimización del diseño de los amplificadores de potencia que estudian el origen de los fenómenos no-lineales y buscan configuraciones de los subsistemas que garanticen un buen compromiso entre eficiencia y linealidad. Dentro de estas técnicas se encuentra el diseño apropiado de la antena, que puede ser un dispositivo integrado que funcione simultáneamente como elemento amplificador y como elemento radiante.
Actualmente diversas empresas del entorno (Centro de Tecnología de las Comunicaciones, S.A. -AT4 wireless-, Fundación Centro andaluz de Innovación y Tecnologías de la Información y las Comunicaciones, -CITIC-, TELVENT -Nasdaq, TLVT- MUD, S.A.) han mostrado interés por los resultados de este proyecto y por la formación que adquieran durante su desarrollo tanto el personal académico participante como el personal en formación.

Publicación realizada por:                                        
           Jhony. A. Bautista. P
           C.I: 18566744
           Asignatura: CAF

Dirección URL:
http://www.umtsforum.net/mostrar_articulos.asp?u_action=display&u_log=212

domingo, 14 de febrero de 2010

Dispositivos activos submarinos (Sonda, Sonar)

Antecedentes


En el siglo XIX se llevaron a cabo varios experimentos para determinar la profundidad del Océano mediante una señal acústica. Esta señal era producida por un transductor situado debajo del agua (en la quilla) y se calculaba cuanto tiempo tardaba la señal en rebotar en el fondo y regresar al punto de origen donde era captada por otro transductor.

Las pruebas llevadas a cabo ya al inicio del Siglo XX todavía no eran del todo precisas ni satisfactorias principalmente a causa de las limitaciones dadas por la tecnología utilizada en la época. Este sistema lo conocemos actualmente como sonda.

Hubo un suceso que impulsó las investigaciones para fabricar un sonar "horizontal", el hundimiento del Titánic el 15 de Abril de 1912. No había pasado un mes desde el desastre del Titánic (el 10 de Mayo) cuando el Inglés Lewis Richardson presentó la patente de lo que debía ser un aparato emisor de señales ultrasónicas y un receptor para captar los ecos (Patente entrada en la "British Patent Office" el día 27 de marzo de 1913 con el número 11.125). La idea era buena aunque todavía no existía la tecnología para llevarla a cabo.

En Alemania el profesor Behm y en Estados Unidos el Canadiense Reginald Fessenden, ya trabajaban en emisores sónicos pero se daría un gran paso cuando en 1917 el francés Paul Langévin presentó un transductor que trabajaba según el principio piezo-eléctrico.
Unos diez años más tarde el trabajo del francés Pierce, junto al de otros,  dio como resultado un emisor de frecuencias ultrasónicas y un transductor magnetostrictivo que captaba el eco ultrasónico. Este dispositivo debía permitir localizar a los icebergs, u otros obstáculos, en condiciones de pobre visibilidad.

Por lo tanto podemos distinguir dos equipos que funcionando bajo el mismo concepto sirven para cosas diferentes. Tenemos la sonda, para determinar la profundidad y el "sonar" (denominación inglesa del dispositivo pero que solemos utilizar comúnmente) para determinar la distancia a un objetivo.

Como ya hemos visto en el apartado dedicado a los Hidrófonos, en la primera guerra mundial ya existían dispositivos de escucha pasivos, pero estos hidrófonos no podían determinar la distancia exacta a la que se encontraba el objetivo. Incluso los sumergibles británicos disponían de un sistema de sonar que les permitía detectar la posición de las minas en un campo minado.
Por eso, a finales de los años veinte, la Reichsmarine empezaría a experimentar con sistemas de localización horizontales activos. Inicialmente utilizaron convertidores piezoeléctricos; las primeras pruebas las realizaron en 1932 con los sumergibles construidos para Finlandia, y más tarde utilizarían transductores magnetostrictivos.

Como sabemos, las frecuencias bajas se captan a mayor distancia que las frecuencias altas, pero también se necesitan equipos más complejos (y más grandes) para captarlas.
Se llegó a un compromiso razonable utilizando la banda de frecuencias situada entre los 15 y los 20KHz (Kilo Hertzios). Alemania escogió para todos sus dispositivos la frecuencia de los 15KHz. El dispositivo emitía impulsos de unos 5Kw de intensidad de 0.02 segundos de duración. El dispositivo (conjunto emisor-receptor) recibiría el nombre de Kündhold.

En condiciones ideales un sumergible equipado con el sistema Kündhold en silencio podía detectar a un buque de gran tamaño a una distancia de entre 5.000 y 10.000 metros. Por otra parte los destructores podían detectar a un sumergible a una distancia de entre 3.000 y 5.000 metros.

Evolución

El peligro de que un sumergible utilizara el sonar activo era enorme, ya que sus señales podían (y eran) captadas por el buque enemigo antes incluso de que el propio sumergible hubiera detectado al buque enemigo. Por este motivo, en la Kriegsmarine se dio la orden de buscar primero utilizando el GHG-Angale (hidrófono) y determinar la posición del enemigo.

Una vez conocida la posición del buque enemigo se utilizaría el Mob-S-Gerät para determinar su distancia exacta. Esto permitía que, en teoría, con pocos impulsos (en condiciones idóneas incluso con sólo uno) se pudiera determinar la distancia y de este modo minimizar el riesgo de ser detectados.

Se puede apreciar las dos escalas para mostrar la profundidad, una graduada de 0 a 125 metros y la otra (la exterior) de 0 a 1.000 metros, en combinación con las dos escalas se podía determinar la profundidad entre los 150 y los 3.000 metros.
Para las mediciones de 0 a 125 metros y de 0 a 1.000 metros se utilizaba un sólo transductor de los seis que había. Para las mediciones de la escala 150-3.000 metros se utilizaban tres transmisores situados a babor y a la altura de la sala de los motores diesel. Los receptores estaban a estribor a la altura de la sala de radio.

A partir del "Mob S-Gerät" que utilizaba dos impulsos, se desarrolló el "S-Gerät" que utilizaba cuatro impulsos y reducía el haz emitido a una franja de 15 a 20 grados lo que lo hacía más preciso. La señal recibida era representada en un tubo de rayos catódicos (similar a un osciloscopio) de 9 cm. de diámetro (Braun tube). Esta señal era proyectada, mediante un dispositivo inclinado, a un espejo semitransparente donde el operador podía interpretarla y podía seleccionar distintas escalas de distancias que también se reflejaban en el espejo. Este dispositivo sólo fue instalado en un Uboot, en el U43 (tipo IX). Nunca sería instalado en un tipo VII, aunque en el desarrollo del Tipo VIIb se tuvo en cuenta la instalación del S-Gerät.

Una evolución posterior del S-Gerät fue el SZ-Gerät en el que en un mismo dispositivo tenías un hidrófono y el Sonar. De este modo era posible "oír" los ecos y determinar la velocidad del objetivo mediante el efecto "Doppler". La frecuencia (sonido) devuelto por el eco se comparaba con la frecuencia utilizada en el impulso del sonar, si la frecuencia aumentaba el objetivo se acercaba, si la frecuencia disminuía el objetivo se alejaba.
Un ejemplo que todos conocemos del efecto Doppler es oír la sirena de una ambulancia, el sonido que oímos va variando a medida que la ambulancia se acerca, pasa a nuestro lado y se aleja. El tono (la frecuencia) va variando.

Cuando la ambulancia se acerca, las ondas de sonido "se comprimen", aumentan de frecuencia y el tono se hace más agudo. Cuando la ambulancia se aleja, las ondas de sonido "se descomprimen", disminuyen de frecuencia y el tono se hace más grave
Una evolución más avanzada del S-Gerät fue el Nibelung que sería probado por primera vez en un uboot del Tipo VIIc, el U1008. Este sistema (inicialmente desarrollado para el Tipo VIIc/42) debía instalarse en los uboote de los tipo XXI y XXIII y permitiría la localización del enemigo y el lanzamiento de torpedos desde una profundidad de unos 50 metros.

A diferencia del S-Gerät y del SZ-Gerät el Nibelung calculaba la distancia del objetivo electrónicamente. El sistema estaba instalado en la torreta del Tipo XXI (hacia la proa) y abarcaba un arco de unos 100 grados.

A finales de la guerra estaban en desarrollo varios sistemas (Sarotti, Most y Hildebrand) que debían aumentar la localización panorámica del S-Geräte y del Nibelung (limitada inicialmente a un arco de 100 grados).
La investigación y desarrollo de los sistemas de recepción activos submarinos era responsabilidad del Nachrichtenmittelversuchsanstalt (NVA) que posteriormente, el 8 de Septiembre de 1939, pasó a llamarse Nachrichtenmittelversuchskommando (NVK) y era un departamento del OKM/Amtsgruppe Technisches Nachrichtenwesen (OKM/Nwa).
La NVA no podía probar sus equipos en las condiciones de trabajo necesarias y en Septiembre de 1936 se crearía la NEK (Nachrichtenmittelerprobungskommando) que también pasaría a estar bajo la supervisión del NVA/NVK al mando del Doctor Rudolf Kuknhold.

Los aparatos eran construidos por Electroakustik GmbH de Kiel y en Atlaswerke en Bremen. Eran instalados en los astilleros, donde había departamentos especiales dedicados a su montaje y ajuste, siguiendo las directrices dadas por el OKM.


En 1943 el departamento de investigación de la Kriegsmarine pasaría a estar supervisado por el profesor Küpfmüller que puso todos sus esfuerzos en todo lo relacionado con los sistemas de detección submarina.

Hubo una gran colaboración entre todos los departamentos de la Kriegsmarine y con las fábricas de Kiel y Bremen (Electroakustik GmbH y Atlaswerke) en parte gracias a la fuerte personalidad del profesor Küpfmüller. Los sistemas de detección submarina alemanes estaban un paso por delante al inicio de la Segunda Guerra Mundial y lo seguirían estando durante toda la contienda.

A pesar de los excelentes sistemas de detección submarina, tanto activos como pasivos, el principal problema de los uboote era acercarse al objetivo en inmersión, problema derivado de su baja velocidad. Por ejemplo navegando a 8 nudos (un tipo VII) tardaba unas dos horas en interceptar a un convoy siempre que antes no fuera localizado por los escoltas.

    Publicación realizada por:
           Jhony. A. Bautista. P
           C.I: 18566744
           Asignatura: CAF

Direccion URL:
http://www.u-historia.com/uhistoria/tecnico/electronica/sonar/sonar.htm

 

Wi-Fi

Wi-Fi

 siglas en inglés de Wireless Fidelity, es un sistema de envío de datos sobre redes computacionales que utiliza ondas de radio en lugar de cables, además es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11.

El nombre

Aunque se pensaba que el término viene de Wireless Fidelity como equivalente a Hi-Fi, High Fidelity, que se usa en la grabación de sonido, realmente la WECA contrató a una empresa de publicidad para que le diera un nombre a su estándar, de tal manera que fuera fácil de identificar y recordar. Phil Belanger, miembro fundador de Wi-Fi Alliance que apoyó el nombre Wi-Fi escribió

"Wi-Fi y el "Style logo" del Ying Yang fueron inventados por la agencia Interbrand. Nosotros (WiFi Alliance) contratamos Interbrand para que nos hiciera un logotipo y un nombre que fuera corto, tuviera mercado y fuera fácil de recordar. Necesitábamos algo que fuera algo más llamativo que "IEEE 802.11b de Secuencia Directa". Interbrand creó nombres como "Prozac", "Compaq", "OneWorld", "Imation", por mencionar algunas. Incluso inventaron un nombre para la compañía: VIVATO."

Phil Belanger

Estándares existentes

Artículo principal: IEEE 802.11

Existen diversos tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE 802.11 aprobado. Son los siguientes:

  • Los estándares IEEE 802.11b e IEEE 802.11g disfrutan de una aceptación internacional debido a que la banda de 2.4 GHz está disponible casi universalmente, con una velocidad de hasta 11 Mbps y 54 Mbps, respectivamente.
  • En la actualidad ya se maneja también el estándar IEEE 802.11a, conocido como WIFI 5, que opera en la banda de 5 GHz y que disfruta de una operatividad con canales relativamente limpios. La banda de 5 GHz ha sido recientemente habilitada y, además no existen otras tecnologías (Bluetooth, microondas, ZigBee, WUSB) que la estén utilizando, por lo tanto existen muy pocas interferencias. Su alcance es algo menor que el de los estándares que trabajan a 2.4 GHz (aproximadamente un 10%), debido a que la frecuencia es mayor (a mayor frecuencia, menor alcance).
  • Un primer borrador del estándar IEEE 802.11n que trabaja a 2.4 GHz y a una velocidad de 108 Mbps. Sin embargo, el estándar 802.11g es capaz de alcanzar ya transferencias a 108 Mbps, gracias a diversas técnicas de aceleramiento. Actualmente existen ciertos dispositivos que permiten utilizar esta tecnología, denominados Pre-N.

Existen otras tecnologías inalámbricas como Bluetooth que también funcionan a una frecuencia de 2.4 GHz, por lo que puede presentar interferencias con Wi-Fi. Debido a esto, en la versión 1.2 del estándar Bluetooth por ejemplo se actualizó su especificación para que no existieran interferencias con la utilización simultánea de ambas tecnologías, además se necesita tener 40.000 k de velocidad.

Seguridad y fiabilidad

Uno de los problemas más graves a los cuales se enfrenta actualmente la tecnología Wi-Fi es la progresiva saturación del espectro radioeléctrico, debida a la masificación de usuarios, esto afecta especialmente en las conexiones de larga distancia (mayor de 100 metros). En realidad Wi-Fi está diseñado para conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance está expuesto a un excesivo riesgo de inteferencias.

Un muy elevado porcentaje de redes son instalados sin tener en consideración la seguridad convirtiendo así sus redes en redes abiertas (o completamente vulnerables a los crackers), sin proteger la información que por ellas circulan.

Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son:

  • Utilización de protocolos de cifrado de datos para los estándares Wi-Fi como el WEP, el WPA, o el WPA2 que se encargan de codificar la información transmitida para proteger su confidencialidad, proporcionados por los propios dispositivos inalámbricos.
  • WEP, cifra los datos en su red de forma que sólo el destinatario deseado pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de seguridad WEP. WEP codifica los datos mediante una "clave" de cifrado antes de enviarlo al aire. Este tipo de cifrado no esta muy recomendado, debido a las grandes vulnerabilidades que presenta, ya que cualquier cracker puede conseguir sacar la clave.
  • WPA: presenta mejoras como generación dinámica de la clave de acceso. Las claves se insertan como de dígitos alfanuméricos, sin restricción de longitud
  • IPSEC (túneles IP) en el caso de las VPN y el conjunto de estándares IEEE 802.1X, que permite la autenticación y autorización de usuarios.
  • Filtrado de MAC, de manera que sólo se permite acceso a la red a aquellos dispositivos autorizados. Es lo mas recomendable si solo se va a usar con pocos equipos.
  • Ocultación del punto de acceso: se puede ocultar el punto de acceso (Router) de manera que sea invisible a otros usuarios.
  • El protocolo de seguridad llamado WPA2 (estándar 802.11i), que es una mejora relativa a WPA. En principio es el protocolo de seguridad más seguro para Wi-Fi en este momento. Sin embargo requieren hardware y software compatibles, ya que los antiguos no lo son.

Sin embargo, no existe ninguna alternativa totalmente fiable, ya que todas ellas son susceptibles de ser vulneradas.

Dispositivos

Existen varios dispositivos que permiten interconectar elementos Wi-Fi, de forma que puedan interactuar entre sí. Entre ellos destacan los routers, puntos de acceso, para la emisión de la señal Wi-Fi y las tarjetas receptoras para conectar a la computadora personal, ya sean internas (tarjetas PCI) o bien USB.

  • Los puntos de acceso funcionan a modo de emisor remoto, es decir, en lugares donde la señal Wi-Fi del router no tenga suficiente radio se colocan estos dispositivos, que reciben la señal bien por un cable UTP que se lleve hasta él o bien que capturan la señal débil y la amplifican (aunque para este último caso existen aparatos especializados que ofrecen un mayor rendimiento).
  • Los router son los que reciben la señal de la línea ofrecida por el operador de telefonía. Se encargan de todos los problemas inherentes a la recepción de la señal, incluidos el control de errores y extracción de la información, para que los diferentes niveles de red puedan trabajar. Además, el router efectúa el reparto de la señal, de forma muy eficiente.

 

                                                    

 

Router WiFi.

  • Además de routers, hay otros dispositivos que pueden encargarse de la distribución de la señal, aunque no pueden encargarse de las tareas de recepción, como pueden ser hubs y switches. Estos dispositivos son mucho más sencillos que los routers, pero también su rendimiento en la red de área local es muy inferior
  • Los dispositivos de recepción abarcan tres tipos mayoritarios: tarjetas PCI, tarjetas PCMCIA y tarjetas USB:

 

                                                           

 

Tarjeta USB para Wi-Fi.

    • Las tarjetas PCI para Wi-Fi se agregan a los ordenadores de sobremesa. Hoy en día están perdiendo terreno debido a las tarjetas USB.
    • Las tarjetas PCMCIA son un modelo que se utilizó mucho en los primeros ordenadores portátiles, aunque están cayendo en desuso, debido a la integración de tarjeta inalámbricas internas en estos ordenadores. La mayor parte de estas tarjetas solo son capaces de llegar hasta la tecnología B de Wi-Fi, no permitiendo por tanto disfrutar de una velocidad de transmisión demasiado elevada
    • Las tarjetas USB para Wi-Fi son el tipo de tarjeta más común que existe y más sencillo de conectar a un pc, ya sea de sobremesa o portátil, haciendo uso de todas las ventajas que tiene la tecnología USB. Además, algunas ya ofrecen la posibilidad de utilizar la llamada tecnología PreN, que aún no esta estandarizada.
    • También existen impresoras, cámaras Web y otros periféricos que funcionan con la tecnología Wi-Fi, permitiendo un ahorro de mucho cableado en las instalaciones de redes.

En relación con los drivers, existen directorios de "Chipsets de adaptadores Wireless"

Ventajas y desventajas

Las redes Wi-Fi poseen una serie de ventajas, entre las cuales podemos destacar:

  • Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio.
  • Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, no así en la tecnología por cable.
  • La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con una compatibilidad total. Esto no ocurre, por ejemplo, en móviles.

Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son:

  • Una de las desventajas que tiene el sistema Wi-Fi es una menor velocidad en comparación a una conexión con cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear.
  • La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red inalámbrica. Este problema se agrava si consideramos que no se puede controlar el área de cobertura de una conexión, de manera que un receptor se puede conectar desde fuera de la zona de recepción prevista (e.g. desde fuera de una oficina, desde una vivienda colindante).
  • Hay que señalar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc.

Referencias

  1. Linux wireless LAN support http://linux-wless.passys.nl

Enlaces externos

  • En 2007, uno de cada dos internautas irá sin cables
  • Wi-Fi Alliance (en inglés)
  • Wireless Fidelity (Wi-Fi) - Specifications (en inglés)
  • Sobre el significado de la denominación Wi-Fi (en inglés)
  • Sobre el significado de la denominación Wi-Fi (en español, traducción parcial del artículo anterior)
  • Wi-Fi de 500 km de alcance (en inglés)
  • Listado de tarjetas Wi-Fi soportadas en Linux (en inglés)
  • i-Wireless Proyecto que estudia las interferencias de las redes Wi-Fi.
  • puntowifi.net Proyecto web sobre google maps que muestra redes wifi abiertas
  • Observatorio Wireless Mapa WiFi neutral, (todos los operadores) con todos los hotspots de las principales capitales españolas
  • Plan de negocios para una empresa de servicios de interconexión a internet para dispositivos móviles con tecnología WIFI

       Publicación realizada por:                                 Dirección URL:

       Jhony. A. Bautista. P                             http://es.wikipedia.org/wiki/Wi-Fi                        

       C.I: 18566744

       Asignatura: CAF 

                                                                   

 

 


Get news, entertainment and everything you care about at Live.com. Check it out!