martes, 29 de agosto de 2017

PATRON DE RADIACION

PATRÓN DE RADIACIÓN

El patrón de radiación es un gráfico o diagrama polar sobre el que se representa la fuerza de los campos electromagnéticos emitidos por una antena. Este patrón varía en función del modelo de antena. Las antenas direccionales representan un mayor alcance que las omnidireccionales.
Existen 2 modelos de gráficos que representan este patrón: En elevación y Azimut. Muchos modelos de antenas incluyen entre sus características, este gráfico. Normalmente tambien se incluye un dato más, que es la apertura del haz, que representa la separación angular entre los dos puntos del lóbulo principal del patrón de radiación. Se suele representar sobre un plano horizontal.

lunes, 28 de agosto de 2017

BIOGRAFIA MAXWELL

James Clerk Maxwell

(Edimburgo, 1831 - Glenlair, Reino Unido, 1879) Físico británico. Nació en el seno de una familia escocesa de la clase media, hijo único de un abogado de Edimburgo. Tras la temprana muerte de su madre a causa de un cáncer abdominal -la misma dolencia que pondría fin a su vida-, recibió la educación básica en la Edimburg Academy, bajo la tutela de su tía Jane Cay.
Con tan sólo dieciséis años ingresó en la Universidad de Edimburgo, y en 1850 pasó a la Universidad de Cambridge, donde deslumbró a todos con su extraordinaria capacidad para resolver problemas relacionados con la física. Cuatro años más tarde se graduó en esta universidad, pero el deterioro de la salud de su padre le obligó a regresar a Escocia y renunciar a una plaza en el prestigioso Trinity College de Cambridge.
En 1856, poco después de la muerte de su padre, fue nombrado profesor de filosofía natural en el Marischal College de Aberdeen. Dos años más tarde se casó con Katherine Mary Dewar, hija del director del Marischal College. En 1860, tras abandonar la recién instituida Universidad de Aberdeen, obtuvo el puesto de profesor de filosofía natural en el King's College de Londres.
En esta época inició la etapa más fructífera de su carrera, e ingresó en la Royal Society (1861). En 1871 fue nombrado director del Cavendish Laboratory. Publicó dos artículos, clásicos dentro del estudio del electromagnetismo, y desarrolló una destacable labor tanto teórica como experimental en termodinámica; las relaciones de igualdad entre las distintas derivadas parciales de las funciones termodinámicas, denominadas relaciones de Maxwell, están presentes de ordinario en cualquier libro de texto de la especialidad.
Sin embargo, son sus aportaciones al campo del elecromagnetismo las que lo sitúan entre los grandes científicos de la historia. En el prefacio de su obra Treatise on Electricity and Magnetism (1873) declaró que su principal tarea consistía en justificar matemáticamente conceptos físicos descritos hasta ese momento de forma únicamente cualitativa, como las leyes de la inducción electromagnética y de los campos de fuerza, enunciadas por Michael Faraday.
Con este objeto, Maxwell introdujo el concepto de onda electromagnética, que permite una descripción matemática adecuada de la interacción entre electricidad y magnetismo mediante sus célebres ecuaciones que describen y cuantifican los campos de fuerzas. Su teoría sugirió la posibilidad de generar ondas electromagnéticas en el laboratorio, hecho que corroboró Heinrich Hertz en 1887, ocho años después de la muerte de Maxwell, y que posteriormente supuso el inicio de la era de la comunicación rápida a distancia
Aplicó el análisis estadístico a la interpretación de la teoría cinética de los gases, con la denominada función de distribución de Maxwell-Boltzmann, que establece la probabilidad de hallar una partícula con una determinada velocidad en un gas ideal diluido y no sometido a campos de fuerza externos. Justificó las hipótesis de Avogadro y de Ampère; demostró la relación directa entre la viscosidad de un gas y su temperatura absoluta, y enunció la ley de equipartición de la energía. Descubrió la birrefringencia temporal de los cuerpos elásticos translúcidos sometidos a tensiones mecánicas y elaboró una teoría satisfactoria sobre la percepción cromática, desarrollando los fundamentos de la fotografía tricolor.
La influencia de las ideas de Maxwell va más allá, si cabe, de lo especificado, ya que en ellas se basan muchas de las argumentaciones tanto de la teoría de la relatividad einsteiniana como de la moderna mecánica cuántica del siglo XX.

domingo, 27 de agosto de 2017

CAPAS DE LA ATMOSFERA

CAPAS DE LA ATMÓSFERA

-Troposfera. Es la capa más baja y abarca la superficie terrestre hasta una altura media de 12 kilómetros; unos 17 kilómetros en las regiones ecuatoriales y cerca de 9 kilómetros en polos. En los trópicos puede tener una altitud de hasta 20 kilómetros. Contiene aproximadamente cuatro quintas partes del aire del planeta, y es en ella donde se produce el clima que afecta a los seres vivos, incluyendo los fenómenos atmosféricos.
La temperatura del aire en la troposfera disminuye en tanto aumenta la altitud. ¿Por qué? Bueno, la razón es que el sol calienta la superficie terrestre y esta calienta la parte inferior de la troposfera. De manera similar, la cantidad de vapor de agua suele disminuir a mayor altura y es mayor cerca de la superficie.
La región limítrofe de la troposfera que la separa de la estratosfera, se llama tropopausa. Ahí la temperatura no experimenta variaciones con la altura.
-Estratosfera. Separada de la troposfera por la tropopausa se encuentra esta capa que contiene un 19 por ciento de los gases atmosféricos, pero muy poca cantidad de vapor de agua. Su altura, del mismo modo que en el caso de la troposfera, varía según la región de la superficie terrestre. Normalmente se encuentra entre los 10-13 y los 50 kilómetros de altitud, pero en los polos comienza a partir de los 8 kilómetros mientras que en zonas cercanas al ecuador inicia a una altura de 18 kilómetros.
Su temperatura es más caliente que la de la troposfera debido a que la capa de ozono absorbe un 97-99 por ciento de la luz ultravioleta del Sol. La capa de ozono es una región de la estratósfera que bloquea los rayos solares e impide que lleguen a los seres vivos en su forma dañina. A pesar de su calor, en su base presenta una temperatura sumamente fría, de hasta -80 grados centígrados.
-Mesosfera. Se ubica encima de la estratosfera hasta una altura de 80-85 kilómetros en las latitudes medias, donde se encuentra la mesopausa. Esta constituye el límite entre la mesosfera y la termosfera.
La temperatura en esta capa desciende nuevamente hasta casi alcanzar los -120 a -143 grados centígrados en su parte superior. Los gruesos gases de la mesosfera son los responsables de frenar los meteoritos y otros fragmentos de cuerpos celestes antes de que impacten contra la superficie terrestre. Lo que ocurre es que justo en la mesosfera se reduce la velocidad de los meteoritos y acaban quemándose.
-Termosfera. Desde el límite superior de la mesopausa se extiende la termosfera, conocida como atmósfera superior. Se extiende hasta los 500-1,000 kilómetros, y a unos 80-550 kilómetros de la superficie terrestre se localiza la ionosfera, una delgada región conductora de electricidad puesto que se encuentra siempre ionizada, es decir, sus electrones y átomos están cargados eléctricamente debido a la radiación ultravioleta del Sol.
La termosfera presenta temperaturas que aumentan con la altitud, como consecuencia de la absorción de una elevada radiación solar. Solo en la termosfera es posible una temperatura de hasta 2,000 grados centígrados en su parte superior. No obstante, para un ser humano la sensación no es tan caliente, ya que el número de moléculas contenido no es alto como para provocar el calentamiento del cuerpo.
Es en esta capa donde se producen las auroras boreales, vistas por lo regular en las regiones polares. Aquí también es el sitio donde transcurre el tiempo para los astronautas que orbitan la Tierra en un transbordador espacial o en una estación espacial.
-Exosfera. Es la última capa, la más externa hasta conectarse con el viento solar. Comprende el área desde la parte superior de la termosfera hasta unos 10,000 kilómetros de altura hasta perderse en el vacío del espacio interplanetario.


BIOGRAFIA BILL GATES

Bill Gates

(William Henry Gates III; Seattle, Washington, 1955) Informático y empresario estadounidense, fundador de Microsoft. La fortuna de este precoz programador, que no llegó a terminar sus estudios y que a los 31 años era ya multimillonario, procede del éxito arrollador de su sistema operativo, el MS-DOS (1981), que evolucionaría hasta convertirse en el popular Windows 3.1 (1992) y daría lugar a las sucesivas versiones de este sistema operativo, omnipresente hasta nuestros días en la inmensa mayoría de los ordenadores portátiles y de sobremesa.
Es difícil juzgar hasta qué punto fue suerte o genial intuición advertir que, en la eclosión de la informática de consumo, había un mercado tan valioso en la fabricación de ordenadores (hardware) como en la creación del sistema operativo y de los programas que habían de emplearse en ellos (software). Lo cierto es que, mientras los fabricantes competían duramente por el hardware, una serie de circunstancias llevaron a que su sistema operativo se extendiese hasta quedar sin apenas competencia. De hecho, a menudo se ha acusado a Microsoft de prácticas monopolísticas, y a su fundador de falta de verdadera creatividad. Pero, aun admitiéndolo, deberá reconocerse que su contribución efectiva a la popularización de la informática (y a la vertiginosa escalada tecnológica que ha conllevado) fue inmensa.

Y así fue al principio: una competición entre fabricantes de ordenadores no demasiado honesta, pues hubo más de un plagio. A mediados de los años setenta, en un garaje atestado de latas de aceite y enseres domésticos, Steve Jobs y Stephen Wozniak diseñaron y construyeron una placa de circuitos de computadora, toda una muestra de innovación y de imaginación. Al principio tenían la intención de vender sólo la placa, pero pronto se convencieron de la conveniencia de montar una empresa, Apple, y vender ordenadores. En 1977 empezaron a comercializar la segunda versión de su computadora personal, el Apple II, que se vendía con un sistema operativo también creado por Apple: un hito histórico que marca el nacimiento de la informática personal.
Bastante ingenuamente, Apple cometió el error de dar a conocer a otras empresas las especificaciones exactas del Apple II. Para desarrollar su primer ordenador personal, la empresa IBM copió y adaptó la arquitectura abierta del ordenador de Apple y escogió el microprocesador Intel 8088, que manejaba ya caracteres de 16 bits. De este modo, en 1981, IBM pudo lanzar su primer PC (Personal Computer, ordenador personal). Pero el sistema operativo de su PC, imprescindible para su funcionamiento, no había sido creado por IBM, sino por Microsoft. Un año antes, en 1980, Bill Gates había llegado a un acuerdo con IBM para suministrarle un sistema operativo adaptado a sus ordenadores personales, el MS-DOS, que desde 1981 iría instalado en todos los ordenadores de la marca.
IBM obtuvo un gran éxito comercial con su PC. Con un precio que, con el paso de los años, sería cada vez más asequible, cualquier consumidor podía comprar una computadora de tamaño reducido, cuyas aplicaciones no hacían sino aumentar, y que abarcaban tanto el ocio como múltiples actividades laborales. Pero IBM también cometió errores en el uso de la patente. Muchas empresas, conscientes del gran boom que se avecinaba, se lanzaron a la fabricación y comercialización de PC compatibles, llamados en la jerga informática clónicos, más económicos que los de IBM.
Biografía
Bill Gates nació en una familia acomodada que le proporcionó una educación en centros de élite como la Escuela de Lakeside (1967-73) y la Universidad de Harvard (1973-77). Siempre en colaboración con su amigo Paul Allen, se introdujo en el mundo de la informática formando un pequeño equipo dedicado a la realización de programas que vendían a empresas o administraciones públicas.
En 1975 se trasladaron a Alburquerque (Nuevo México) para trabajar suministrando a la compañía MITS una serie de programas susceptibles de ser utilizados con el primer microordenador, el Altair, para el cual habían desarrollado una versión del lenguaje de programación BASIC. Ese mismo año fundaron en Alburquerque su propia empresa de producción de software informático, Microsoft Corporation, con Bill Gates como presidente y director general. Su negocio consistía en elaborar programas adaptados a las necesidades de los nuevos microordenadores y ofrecérselos a las empresas fabricantes más baratos que si los hubieran desarrollado ellas mismas. Cuando, en 1979, Microsoft comenzó a crecer (contaba entonces con dieciséis empleados), Bill Gates decidió trasladar su sede a Seattle.
El negocio del software
A principios de la década de 1970, la invención del microprocesador permitió abaratar y reducir el tamaño de las gigantescas computadoras existentes hasta entonces. Era un paso decisivo hacia un sueño largamente acariciado por muchas empresas punteras en el sector tecnológico: construir ordenadores de tamaño y precio razonable que permitiesen llevar la informática a todas las empresas y hogares. El primero en llegar podría iniciar un negocio sumamente lucrativo y de enorme potencial. Era impensable que una empresa como Microsoft, dedicada solamente al software (sistemas operativos y programas) pudiese jugar algún papel en esta carrera entre fabricantes de hardware, es decir, de máquinas.
Y así fue al principio: una competición entre fabricantes de ordenadores no demasiado honesta, pues hubo más de un plagio. A mediados de los años setenta, en un garaje atestado de latas de aceite y enseres domésticos, Steve Jobs y Stephen Wozniak diseñaron y construyeron una placa de circuitos de computadora, toda una muestra de innovación y de imaginación. Al principio tenían la intención de vender sólo la placa, pero pronto se convencieron de la conveniencia de montar una empresa, Apple, y vender ordenadores. En 1977 empezaron a comercializar la segunda versión de su computadora personal, el Apple II, que se vendía con un sistema operativo también creado por Apple: un hito histórico que marca el nacimiento de la informática personal.
Bastante ingenuamente, Apple cometió el error de dar a conocer a otras empresas las especificaciones exactas del Apple II. Para desarrollar su primer ordenador personal, la empresa IBM copió y adaptó la arquitectura abierta del ordenador de Apple y escogió el microprocesador Intel 8088, que manejaba ya caracteres de 16 bits. De este modo, en 1981, IBM pudo lanzar su primer PC (Personal Computer, ordenador personal). Pero el sistema operativo de su PC, imprescindible para su funcionamiento, no había sido creado por IBM, sino por Microsoft. Un año antes, en 1980, Bill Gates había llegado a un acuerdo con IBM para suministrarle un sistema operativo adaptado a sus ordenadores personales, el MS-DOS, que desde 1981 iría instalado en todos los ordenadores de la marca.
IBM obtuvo un gran éxito comercial con su PC. Con un precio que, con el paso de los años, sería cada vez más asequible, cualquier consumidor podía comprar una computadora de tamaño reducido, cuyas aplicaciones no hacían sino aumentar, y que abarcaban tanto el ocio como múltiples actividades laborales. Pero IBM también cometió errores en el uso de la patente. Muchas empresas, conscientes del gran boom que se avecinaba, se lanzaron a la fabricación y comercialización de PC compatibles, llamados en la jerga informática clónicos, más económicos que los de IBM.
El mercado se inundó de ordenadores personales compatibles con el de IBM que funcionaban con el sistema operativo de Microsoft, que podía venir instalado o adquirirse por separado, porque, aunque IBM lo había encargado, el MS-DOS no era de sus propiedad: había cedido los derechos de venta a Microsoft. Por otro lado, aparte de las empresas y administraciones, no siempre los usuarios adquirían la licencia del MS-DOS. Era sencillísimo conseguir una copia e instalarlo sin pagar, hecho que favoreció aún más su difusión.
Del MS-DOS a Windows
Aún existían otra opciones, pero se quedaron en minoritarias: gracias a su bajo coste, la combinación PC más MS-DOS acabó copando el mercado y convirtiéndose en el estándar. Mientras los fabricantes de ordenadores intentaban reducir costes, entregados a una guerra de precios de la que nadie pudo sacar una posición dominante, una empresa de software, la de Bill Gates, se hizo con prácticamente todo el mercado de sistemas operativos y buena parte del de programas.
A partir de ese momento, la expansión de Microsoft fue espectacular. Y no sólo porque los PC necesitaban un sistema operativo para funcionar, sino también porque los programas y aplicaciones concretas (un procesador de textos, un hoja de cálculo, un juego) se desarrollan sobre la base de un sistema operativo en concreto, y ese sistema era el MS-DOS. Las distintas empresas de software (y entre ellas la misma Microsoft) podían desarrollar, por ejemplo, distintos procesadores de textos, compitiendo entre ellas para agradar al usuario. Pero como la inmensa mayoría de usuarios tenía MS-DOS, desarrollaban programas para funcionar con MS-DOS, y acababan por hacer un favor a Microsoft, que podía presumir de que sobre su sistema operativo podían funcionar todos los programas imaginables: los suyos y casi todos los de la competencia. Esa retroalimentación viciosa era el fabuloso activo de Microsoft, y Bill Gates supo conservarlo.
El MS-DOS, sin embargo, era un entorno poco amigable, cuyo manejo requería el conocimiento de comandos que se introducían a través del teclado. Con el lanzamiento en 1984 del ordenador personal Macintosh, Apple pareció tomar de nuevo la delantera. Su sistema de ventanas supuso un salto cualitativo; su interfaz simulaba la distribución de una mesa de trabajo por medio de iconos. Un pequeño aparato, el ratón, cuyo movimiento se reflejaba en la pantalla con un icono parpadeante, permitía recorrerla en busca del documento o programa buscado. En lugar de tener que recordar los comandos de cada una de las operaciones y teclearlos en cada momento, bastaba acudir a los listados de acciones posibles y hacer clic con el ratón sobre la opción elegida.
Por el momento, aquellas innovaciones no parecían hacer sombra a Bill Gates. En 1983 Paul Allen dejó Microsoft, aquejado de una grave enfermedad. Y cuando, en 1986, Microsoft salió a la Bolsa, las acciones se cotizaron tan alto que Bill Gates se convirtió en el multimillonario más joven de la historia. Volcado en un proceso de innovación tecnológica acelerada, y en su caso imitando más el Macintosh de Apple que innovando, Gates lanzó una interfaz gráfica para MS-DOS llamada Windows: Windows 3.0 en 1990 y Windows 3.1 en 1992.
No era, en realidad, un nuevo sistema operativo, sino, como se ha dicho, una interfaz gráfica con ratón, iconos y ventanas bajo la que seguía corriendo el viejo MS-DOS, pero fue muy bien recibido por los usuarios, que disponían finalmente de un sistema tan intuitivo como el de Macintosh pero mucho más económico al funcionar sobre un PC, gracias a lo cual se impuso fácilmente en el mercado. El enorme éxito llevó a la verdadera renovación que fue Windows 95 (en cuya campaña de promoción a escala mundial asumió el propio Gates el papel de profeta de la sociedad cibernética como personificación de Microsoft), al que seguirían Windows 98 y las sucesivas versiones de este sistema operativo, de entre las que sobresale Windows XP (2001), el primero cien por cien de nuevo cuño, que dejaba completamente de lado el antiguo MS-DOS.
Entretanto, el negocio no había cesado de crecer (de los 1.200 empleados que tenía en 1986 hasta más de 20.000 en 1996), y, con la generalización de Windows, Bill Gates pasó a ejercer un virtual monopolio del mercado del software mundial, reforzado por su victoria en el pleito de 1993 contra Apple, que había demandado a Microsoft por considerar que Windows era un plagio de la interfaz gráfica de su Macintosh. Desde 1993 embarcó a la compañía en la promoción de los soportes multimedia, especialmente en el ámbito educativo.
Además de Windows, muchos de los programas y aplicaciones concretas más básicas e importantes producidas por la empresa (el paquete ofimático Microsoft Office, por ejemplo) eran siempre las más vendidas. Surgieron muchas voces críticas que censuraban su posición monopolística, y en numerosas ocasiones Microsoft fue llevada por ello a los tribunales por empresas competidoras y gobiernos, pero nada logró detener su continua ascensión.
Empresario y filántropo
El talento de Gates se ha reflejado en múltiples programas informáticos, cuyo uso se ha difundido por todo el mundo como lenguajes básicos de los ordenadores personales; pero también en el éxito de una empresa flexible y competitiva, gestionada con criterios heterodoxos y con una atención especial a la selección y motivación del personal. Las innovaciones de Gates contribuyeron a la rápida difusión del uso de la informática personal, produciendo una innovación técnica trascendental en las formas de producir, transmitir y consumir la información. El presidente George Bush reconoció la importancia de la obra de Gates otorgándole la Medalla Nacional de Tecnología en 1992.
Su rápido enriquecimiento ha ido acompañado de un discurso visionario y optimista sobre un futuro transformado por la penetración de los ordenadores en todas las facetas de la vida cotidiana, respondiendo al sueño de introducir un ordenador personal en cada casa y en cada puesto de trabajo; este discurso, que alienta una actitud positiva ante los grandes cambios sociales de nuestra época, goza de gran audiencia entre los jóvenes de todo el mundo por proceder del hombre que simboliza el éxito material basado en el empleo de la inteligencia (su libro Camino al futuro fue uno de los más vendidos en 1995).
Los detractores de Bill Gates, que también son numerosos, le reprochan, no sin razón, su falta de creatividad (ciertamente su talento y sus innovaciones no son comparables a las de un Steve Jobs, y más bien siguió los caminos que abría el fundador de Apple), y critican asimismo su política empresarial, afirmando que se basó siempre en el monopolio y en la absorción de la competencia o del talento a golpe de talonario. A los críticos les gusta subrayar un hecho totalmente real, pese a que parezca una leyenda urbana: ni siquiera el MS-DOS es obra suya. Bill Gates lo compró por 50.000 dólares a un programador de Seattle llamado Tim Paterson, le cambió el nombre y lo entregó a IBM.
Su rápido enriquecimiento ha ido acompañado de un discurso visionario y optimista sobre un futuro transformado por la penetración de los ordenadores en todas las facetas de la vida cotidiana, respondiendo al sueño de introducir un ordenador personal en cada casa y en cada puesto de trabajo; este discurso, que alienta una actitud positiva ante los grandes cambios sociales de nuestra época, goza de gran audiencia entre los jóvenes de todo el mundo por proceder del hombre que simboliza el éxito material basado en el empleo de la inteligencia (su libro Camino al futuro fue uno de los más vendidos en 1995).
Los detractores de Bill Gates, que también son numerosos, le reprochan, no sin razón, su falta de creatividad (ciertamente su talento y sus innovaciones no son comparables a las de un Steve Jobs, y más bien siguió los caminos que abría el fundador de Apple), y critican asimismo su política empresarial, afirmando que se basó siempre en el monopolio y en la absorción de la competencia o del talento a golpe de talonario. A los críticos les gusta subrayar un hecho totalmente real, pese a que parezca una leyenda urbana: ni siquiera el MS-DOS es obra suya. Bill Gates lo compró por 50.000 dólares a un programador de Seattle llamado Tim Paterson, le cambió el nombre y lo entregó a IBM.
Su rápido enriquecimiento ha ido acompañado de un discurso visionario y optimista sobre un futuro transformado por la penetración de los ordenadores en todas las facetas de la vida cotidiana, respondiendo al sueño de introducir un ordenador personal en cada casa y en cada puesto de trabajo; este discurso, que alienta una actitud positiva ante los grandes cambios sociales de nuestra época, goza de gran audiencia entre los jóvenes de todo el mundo por proceder del hombre que simboliza el éxito material basado en el empleo de la inteligencia (su libro Camino al futuro fue uno de los más vendidos en 1995).
Los detractores de Bill Gates, que también son numerosos, le reprochan, no sin razón, su falta de creatividad (ciertamente su talento y sus innovaciones no son comparables a las de un Steve Jobs, y más bien siguió los caminos que abría el fundador de Apple), y critican asimismo su política empresarial, afirmando que se basó siempre en el monopolio y en la absorción de la competencia o del talento a golpe de talonario. A los críticos les gusta subrayar un hecho totalmente real, pese a que parezca una leyenda urbana: ni siquiera el MS-DOS es obra suya. Bill Gates lo compró por 50.000 dólares a un programador de Seattle llamado Tim Paterson, le cambió el nombre y lo entregó a IBM.
En la actualidad, Microsoft sigue siendo una de las empresas más valiosas del mundo, pese a haber perdido diversas batallas, especialmente la de Internet y la de los sistemas operativos para teléfonos móviles, que lidera ahora Google (Sergei Brin y Larry Page), otro gigante tan valioso como Microsoft. Frente al dinamismo de la era de Internet, en la que surgen y se convierten rápidamente en multimillonarias nuevas ideas como la red social Facebook, de Mark Zuckerberg, la empresa de Gates parece haber quedado algo anquilosada, aunque no se pone en duda la solidez de su posición.
Tampoco ello es exclusiva responsabilidad de Bill Gates, que ya en el año 2000 cedió la presidencia ejecutiva de Microsoft a Steve Ballmer y pasó a ser arquitecto jefe de software para centrarse en los aspectos tecnológicos. Bill Gates había contraído matrimonio en 1994 con Melinda French, con la que tendría tres hijos. En el año 2000 creó, junto con su esposa, la Fundación Bill y Melinda Gates, institución benéfica dedicada a temas sanitarios y educativos cuya espléndida dotación económica procede mayormente de su fortuna personal. No en vano el fundador de Microsoft es un habitual de las listas anuales de la revista Forbes: en 2014 la había encabezado ya en quince ocasiones como el hombre más rico del planeta.
En 2008, Bill Gates abandonó definitivamente Microsoft para dedicarse íntegramente a sus labores en la fundación, que había recibido el Premio Príncipe de Asturias de Cooperación Internacional en 2006. Si antes fue una figura discutida, esta nueva etapa como filántropo despierta más bien unánime admiración: al igual que lo fue su empresa, su fundación es la más grande del mundo por lo que respecta a la cuantía de sus aportaciones económicas a toda clase de programas de ayuda, investigación y desarrollo.

TIPOS DE ANTENAS

Tipos De Antenas


ANTENA ISOTRÓPICA

La antena isotrópica es una antena hipotética sin pérdida (se refiere a que el área física es cero y por lo tanto no hay pérdidas por disipación de calor) que tiene intensidad de radiación igual en todas direcciones. (IEEE Standard Dictionary of Electrical and Electronic Terms, 1979). Sirve de base de referencia para evaluar la directividad. La antena isotrópica no es una antena, sino un concepto de referencia para evaluar a las antenas en su función de concentración de energía y a las pérdidas por propagación en el espacio libre en los enlaces de radiofrecuencia. Su patrón de radiación es una esfera. Cada aplicación y cada banda de frecuencia presentan características peculiares que dan origen a unos tipos de antenas especiales muy diversas. Los tipos más comunes de antenas son los que se explican en los siguientes apartados.
Antenas De  Hilo
Las antenas de hilo están formadas por hilos conductores, eléctricamente delgados, cuyo diámetros << λ. Se modelan como un conductor de sección infinitesimal. Pueden estar formadas por hilos rectos (dipolos, rombos), espirales (circular, cuadrada o cualquier forma arbitraria) y hélices. En la figura 5 se muestran algunos tipos ampliamente empleados en radiocomunicaciones.

El tipo más común son las antenas de dipolo. Esta clase de antena es la más sencilla de todas. El dipolo de media onda o antena de Hertz –el tipo más común– consiste en un hilo conductor de media longitud de onda a la frecuencia de trabajo, cortado por la mitad, en cuyo centro se coloca un generador o una línea de transmisión. Suelen estar fabricados de aluminio o cobre.
En el centro del dipolo hay una tensión reducida y una intensidad elevada, mientras que en las puntas se produce una tensión muy elevada y una intensidad nula, y por tal motivo los dipolos pueden plegarse para darles mayor ganancia a la vez que mayor rigidez mecánica. La impedancia nominal de un dipolo es de 75 ohmios (300 ohmios para el dipolo doble). Sin embargo, en un dipolo real situado a una cierta distancia del suelo la impedancia varía considerablemente, pero este efecto no tiene mayor importancia si se puede aceptar una ROE (Razón de Onda Estacionaria) máxima en la línea de transmisión de 2:1.


ANTENAS YAGI-UDA
Una aplicación práctica de este tipo de antenas, es el de las antenas tipo yagi-uda (directivas), ampliamente utilizadas, por ejemplo, para la recepción de señales de televisión en la banda de UHF, ya que poseen una gran directividad, tanto mayor cuanto mayor sea el número de elementos pasivos (parásitos) que incorpore y así su ganancia es la adecuada para recibir el nivel de señal suficiente para que pueda ser amplificado sin problemas. En la figura 9 podemos ver la imagen de una de ellas, que seguro que nos resultará muy familiar a todos, ya que es la típica antena de recepción de televisión. Su ganancia y directividad dependerá del número de elementos reflectores, cuantos más, mejor, y puede cubrir toda la gama de canales de UHF, desde el 21 al 69.
La antena Yagi es pues una antena capaz de concentrar la mayor parte de la energía radiada de manera localizada, aumentando así la potencia emitida hacia el receptor o recibida desde la fuente y evitando interferencias introducidas por fuentes no deseadas.

Podemos definir una antena periódica-logarítmica como un grupo de antenas dipolos unidas y alimentadas a través de una línea de transmisión común. Es una antena multibanda y su respuesta en frecuencia es muy plana, lo que la hace muy interesante en aplicaciones donde el usuario utiliza sistemas en diferentes bandas (por ejemplo, aplicaciones celulares). Debido a estas características, el coste de este tipo de antenas es más elevado que el de las mencionadas anteriormente. El diseño de una antena de este tipo consiste en una figura geométrica básica que se repite, pero con distintos tamaños. Pueden ser unidireccionales o bidireccionales, y tener una ganancia directiva de baja a moderada. También se pueden alcanzar altas ganancias usándolas como elementos de una red mas complicada. Tienen características de banda muy ancha y, por ende, se dice también que son independientes de la frecuencia. Cuando una estación transmite una señal, y la antena se apunta en la dirección necesaria para recibir esa señal, se puede demostrar que sólo uno o dos de los elementos bipolares de la antena reaccionarán a la frecuencia. Todos los demás elementos serán inactivos a esa frecuencia dada, sin embargo, se harán activos para algunas otras frecuencias. En otras palabras, para cualquier frecuencia dada que se reciba, solo se consideran activos uno o dos de los elementos.
ANTENAS DE APERTURA
En estas antenas, la onda radiada se consigue a partir de una distribución de campo soportada por la antena y se suelen excitar por guías de onda. Son antenas de apertura las bocinas (piramidales o cónicas), las aperturas sobre planos y ranuras sobre planos conductores y las guías de onda. En concreto, una bocina es una antena que se utiliza de forma generalizada a frecuencias de microondas, por sus características de gran ancho de banda y por su facilidad de construcción y diseño. Las bocinas se pueden utilizar como antena individual, en forma de agrupaciones, o como alimentador de reflectores o lentes. De acuerdo con la forma de la apertura, las bocinas pueden ser de dos tipos: piramidal y cónica. El empleo de reflectores (superficies planas, parabólicas, hiperbólicas, elípticas) permite optimizar las características de radiación
ANTENAS PLANAS
Las antenas planas (microstrip) están formadas por un agrupamiento plano de radiadores (parches) y un circuito que distribuye la señal entre ellos. Su diseño se adecua de forma que la estructura disipe la potencia en forma de radiación. Ambos, parches y circuito, se fabrican utilizando técnicas de fotograbado sobre un sustrato dieléctrico laminado en cobre por ambas superficies. Al ser una tecnología plana, facilita su integración con el resto del sistema, favoreciendo la reducción del tamaño y peso global. Presentan la desventaja de su estrecho ancho de banda, pero actualmente existen numerosos métodos para solventar este inconveniente.
ANTENAS CON REFLECTOR (PARABÓLICAS)
En este tipo de antenas la señal emitida/recibida no sale/entra directamente en/del elemento captador, sino que se emite/recoge por/en el mismo una vez reflejada en un elemento pasivo que concentra la señal. En el caso de una antena receptora, su funcionamiento se basa en la reflexión de las ondas electromagnéticas, por la cual las ondas que inciden paralelamente al eje principal se reflejan y van a parar a un punto denominado foco que está centrado en el paraboloide. En cambio, si se trata de una antena emisora, las ondas que emanan del foco (dispositivo de emisión) se ven reflejadas y salen en dirección paralela al eje de la antena. Básicamente, existen tres tipos básicos de antenas con reflector.
Las antenas reflectoras parabólicas proporcionan una ganancia y una directividad extremadamente altas y son muy populares para las microondas y el enlace de comunicaciones por satélite. Una antena parabólica se compone de dos partes principales: un reflector parabólico y elemento activo llamado mecanismo de alimentación. En esencia, el mecanismo de alimentación aloja la antena principal (por lo general un dipolo), que irradia ondas electromagnéticas hacia el reflector. El reflector es un dispositivo pasivo que solo refleja la energía irradiada por el mecanismo de alimentación en una emisión concentrada altamente direccional donde las ondas individuales están todas en fase entre sí (frente de ondas en fase).

Foco primario
 La superficie de la antena es un paraboloide de revolución, todas las ondas inciden paralelamente al eje principal, se reflejan, y van a parar al Foco. El Foco está centrado en el paraboloide. Tiene un rendimiento máximo del 60% aproximadamente, es decir, de toda la energía que llega a la superficie de la antena, el 60% llega al foco y se aprovecha; el resto no llega al foco y se pierde. Se suelen ver de tamaño grande, aproximadamente de 1,5 m de diámetro.

Offset
 Una antena offset está formada por una sección de un reflector paraboloide de forma oval. La superficie de la antena ya no es redonda, sino oval y simétrica (elipse). El punto focal no está montado en el centro del plato, sino desplazado a un lado del mismo (offset), de tal forma que el foco queda fuera de la superficie de la antena. La ventaja de esta tecnología es que la superficie de la antena ya no estará sombreada por el LNB (Low Noise Block), desde el punto de vista del satélite, y así se recibe algo más de señal.
Cassegrain
 Se caracteriza por llevar un segundo reflector cerca de su foco, el cual refleja la onda radiada desde el dispositivo radiante hacia el reflector en las antenas transmisoras, o refleja la onda recibida desde el reflector hacia el dispositivo detector en las antenas receptoras.
Este tipo de antenas presentan una gran directividad, una elevada potencia en el transmisor y un receptor de bajo ruido. Utilizar una gran antena reflectora implica grandes distancias del transmisor al foco (y la imposibilidad de colocar equipos en él) por lo que una solución es emplear un segundo reflector o su reflector
ARRAYS
Una antena de arreglo de fase (array) es un grupo de antenas que, cuando se conectan, funcionan como una sola antena cuyo ancho de haz y dirección (o sea, patrón de radiación) puede cambiarse electrónicamente sin tener que mover físicamente ninguna de las antenas individuales. La ventaja principal de este tipo de antenas es que eliminan la necesidad de mover en forma mecánica los elementos de la misma. Una aplicación típica es en radares, donde los patrones de radiación deben ser capaces de cambiar rápidamente para seguir un objeto en movimiento y, últimamente, también en las comunicaciones móviles de 3G y 4G..
Se puede controlar –ajusta o cambiar– electrónicamente la amplitud de las corrientes y la fase de cada antena individual, modificando la forma del diagrama de radiación. Además, se puede conseguir que los parámetros de la antena dependan de la señal recibida a través de circuitos asociados a los elementos radiantes, como es el caso de las agrupaciones adaptativas.



PARAMETROS DE UNA ANTENA

PARÁMETROS DE UNA ANTENA

Ancho de banda. Es el margen de frecuencias en el cual los parámetros de la antena cumplen unas determinadas características. Se puede definir un ancho de banda de impedancia, de polarización, de ganancia o de otros parámetros.

Directividad. Es la relación entre la densidad de potencia radiada en la dirección de máxima radiación, a una cierta distancia R, y la potencia total radiada dividida por el área de la esfera de radio R. La directividad se puede calcular a partir del diagrama de radiación. La ganancia de una antena es igual a la directividad multiplicada por la eficiencia. La relación entre la densidad de potencia radiada por la antena en la dirección útil y la que radia por el lóbulo trasero se conoce como relación delante/detrás (forward/backward) y es un importante parámetro de diseño de la antena en lo relativo a interferencias. 
El ángulo que hace referencia al diagrama de radiación del lóbulo principal en el plano horizontal de la antena se denomina “azimut”, que para el diagrama de radiación vertical se denomina “ángulo de elevación”, que se diseña para concentrar el máximo de radiación para aquellos ángulos por debajo de la horizontal, que es donde se agrupan los usuarios, ya que las antenas se colocan en cotas elevadas para alcanzar una mayor cobertura.

Ganancia. Es la relación entre la densidad de potencia radiada en la dirección del máximo a una distancia R y la potencia total entregada a la antena dividida por el área de una esfera de radio R. La eficiencia es la relación entre la ganancia y la directividad, que coincide con la relación entre la potencia total radiada y la potencia entregada a la antena.

Rendimiento en la antena. El rendimiento de una antena transmisora es la relación entre la potencia de radiación y la potencia total aplicada a la antena, en la cual se toma en cuenta, además de la potencia de radiación, la potencia de pérdida.

Impedancia. Una antena se tendrá que conectar a un transmisor (o a un recptor) y deberá radiar (recibir) el máximo de potencia posible con un mínimo de perdidas. Se deberá adaptar el transmisor o receptor a la antena para una máxima transferencia de potencia, que se suele hacer a través de una línea de transmisión. Esta línea también influirá en la adaptación, debiéndose considerar entre otros, su impedancia característica y atenuación. La impedancia característica (Z0) es un parámetro que depende de parámetros primarios; de la relación longitud-diámetro del material del conductor y de la frecuencia de trabajo, mientras que la impedancia de entrada es el parámetro circuital de la antena (relación del voltaje de entrada a la corriente de entrada).


Anchura de haz. Es un parámetro de radiación, ligado al diagrama de radiación. Se puede definir el ancho de haz a -3 dB, que es el intervalo angular en el que la densidad de potencia radiada es igual a la mitad de la máxima. También se puede definir el ancho de haz entre ceros, que es el intervalo angular del haz principal del diagrama de radiación, entre los dos ceros adyacentes al máximo

JULIETA FIERRO

Dra.  Julieta Norma Fierro Gossman Resumen curricular La doctora Julieta Norma Fierro Gossman es Investigador Titular, de tiempo co...