miércoles, 29 de febrero de 2012
martes, 28 de febrero de 2012
Heinrich Rudolf Hertz
Heinrich Rudolf Hertz nació el 22 de febrero de 1857 en Hamburgo, Alemania, de una familia judía que se había convertido al Cristianismo luterano. Su padre era un afamado abogado y legislador, y su madre hija de un reconocido médico.
Criado en la fe luterana, Hertz nunca renegó de sus raíces hebreas, aunque durante toda su vida mantuvo firme adhesión al protestantismo.
En sus comienzos había mostrado un prioritario interés en la meteorología, situación que fue cambiando a medida que progresaba en sus estudios. Descubriría que su vocación sería a la física, la que abrazó con apasionamiento durante su breve carrera.
En 1876 comenzó a estudiar en la Universidad Politécnica de Dresde. Al año siguiente, en 1877, se enroló en la carrera de Ciencias en Munich y, finalmente, se pasó a la Universidad de Berlín. Allí culminó sus estudios y recibió su Doctorado (1880)
Permaneció en Berlín durante un tiempo como apadrinado y asistente de Hermann Von Helmholtz, un renombrado científico y catedrático.
En 1883 fue nombrado profesor en la Universidad de Kiel en donde comenzaría a investigar sobre los trabajos de otro grande de la ciencia, James Clerck Maxwell.
En 1885 ingresó como docente de la Universidad de Kalsruhe. En este lugar pudo desarrollar con amplitud y experimentar sobre algunas de sus teorías, de entre las cuales surgiría su mayor descubrimiento: las ondas electromagnéticas.
Criado en la fe luterana, Hertz nunca renegó de sus raíces hebreas, aunque durante toda su vida mantuvo firme adhesión al protestantismo.
En sus comienzos había mostrado un prioritario interés en la meteorología, situación que fue cambiando a medida que progresaba en sus estudios. Descubriría que su vocación sería a la física, la que abrazó con apasionamiento durante su breve carrera.
En 1876 comenzó a estudiar en la Universidad Politécnica de Dresde. Al año siguiente, en 1877, se enroló en la carrera de Ciencias en Munich y, finalmente, se pasó a la Universidad de Berlín. Allí culminó sus estudios y recibió su Doctorado (1880)
Permaneció en Berlín durante un tiempo como apadrinado y asistente de Hermann Von Helmholtz, un renombrado científico y catedrático.
En 1883 fue nombrado profesor en la Universidad de Kiel en donde comenzaría a investigar sobre los trabajos de otro grande de la ciencia, James Clerck Maxwell.
En 1885 ingresó como docente de la Universidad de Kalsruhe. En este lugar pudo desarrollar con amplitud y experimentar sobre algunas de sus teorías, de entre las cuales surgiría su mayor descubrimiento: las ondas electromagnéticas.
Esquema del aparato generador de ondas electromagnéticas construido por Hertz.
Hertz logró comprobar que las señales eléctricas podrían viajar a través del aire, tal como años antes lo habían predicho James Maxwell y Michael Faraday. En especial Maxwell, insistía sobre la idea de que algún día se podría llegar a transmitir sonidos e imágenes por vía aérea.
En 1888, durante una clase en la Universidad de Karlsruhe, Hertz pudo demostrar su teoría sobre la existencia de la radiación electromagnética, utilizando un oscilador que el mismo había diseñado. Este aparato rudimentario era capaz de producir ondas de radio.
De hecho, logró que dos partes diferentes y separadas de un aparato - un oscilador (antena emisora) y un resonador (antena receptora) que él mismo construyó- se comunicaran mediante ondas electromagnéticas a través del aire. Era la primera comunicación por radio de la historia.
Una década más tarde, en 1897, el físico ruso Alexander Stepanovich Popov (1859-1905) inventó una antena que le permitió comunicarse con un barco a cinco kilómetros de la costa. El mismo año, el ingeniero italiano Guillermo Marconi perfeccionó el invento para lograr una comunicación a 20 kilómetros de distancia y comenzó a comercializar su invento, lo que dio origen a la industria de la radiotelegrafía.
Una década más tarde, en 1897, el físico ruso Alexander Stepanovich Popov (1859-1905) inventó una antena que le permitió comunicarse con un barco a cinco kilómetros de la costa. El mismo año, el ingeniero italiano Guillermo Marconi perfeccionó el invento para lograr una comunicación a 20 kilómetros de distancia y comenzó a comercializar su invento, lo que dio origen a la industria de la radiotelegrafía.
Hertz describió la naturaleza y las propiedades de éstas, tales como la susceptibilidad a la refracción y a la reflexión.
En 1889 fue nombrado profesor de Física en la Universidad de Bonn en donde continuó investigando. Experimentó sobre el efecto de las descargas eléctricas sobre los gases enrarecidos, logró determinar el efecto ondulatorio de los rayos catódicos y demostró que el calor proporciona una forma de radiación electromagnética. Otro de sus descubrimientos fue el efecto fotoeléctrico.
Escribió una obra que tituló “Gesammalte Werke” que contiene tres tomos: “Sobre las ondas eléctricas”, “Trabajos varios” y ”Principios de Mecánica”.
Heinrich Rudolf Hertz falleció muy joven, a los 37 años de edad, producto de una septicemia. Pero la posta de este gran científico fallecido un 1º de Enero de 1894, sería recogida por otros.
Legado
Ese mismo año, inspirado en la obra de Hertz, un italiano llamado Guillermo Marconi comenzaría sus primeras investigaciones sobre la transmisión de ondas. En 1895, estas ondas llegarían a cubrir una distancia de 2 kilómetros. En 1901, la letra “S” del código Morse atravesó el espacio sobre el Océano Atlántico y luego de viajar unos 3400 kilómetros arribó en un instante a Terranova, en el continente americano.
En 1925, un sobrino de Heinrich Hertz, llamado Gustav Hertz, ganaría el Premio Nobel de Física por su trabajo sobre el paso de los electrones a través de los gases, algo sobre lo que había comenzado a trabajar su tío Heinrich cuando lo sorprendió la muerte.
En otra de las aplicaciones relacionadas con los trabajos de Heinrich Hertz, el hijo de Gustav, Carl Hellmuth Hertz, inventó la ultrasonografía médica, popularmente conocida como ecografía.
En 1933, en honor a su descubridor, se acordó denominar “hertz” (Hz) a la unidad de medida de la frecuencia de las ondas hertzianas. Palabras como kilohertz (KHz), megahertz (MHz) o gigahertz (GHz) se utilizan para mensurar la frecuencia de todo tipo de emisiones inalámbricas, como las de radio, televisión, telefonía celular, etc., así como la frecuencia de los microprocesadores de las modernas computadoras.
domingo, 26 de febrero de 2012
Histeresis
Los que estudiamos ingeniería nos acostumbramos a la idea de histéresis cuando aprendemos Magnetismo. ¿Qué es la histéresis? La histéresis es algo más que una curva rara…
La histéresis es el fenómeno de inercia por el cual un material ofreciendo resistencia a un cambio, tiene una tendencia a conservar sus propiedades. Haciendo que el proceso de variación sea distinto en un sentido que en el contrario.
Esto puede parecer muy vago, pero esto se puede ver en varios ejemplos:
Histéresis magnética
Al magnetizar un material mediante una corriente exterior, el efecto que debe producirse a nivel icroscópico, es el de orientar los espines de las partículas en los nodos de la malla del material. En un sólido las partículas tienen muy pocos grados de libertad: sólo pueden vibrar. Esto hace que las interacciones entre los espines de las partículas sea muy alto. Es decir, estas interacciones son casi manifestaciones de fuerzas internas de la estructura atómica.
Teniendo esto en cuenta es claro que al inicio de la magnetización se requiere más trabajo para orientar los espines que cuando las moléculas están orientadas más ordenadamente. También es claro que llegará un momento en el cual todas las moléculas estarán estadísticamente orientadas de forma regular. Entonces al final aunque uno siga entregando trabajo, la cantidad de moléculas orientadas será prácticamente constante.
El trabajo necesario se mide de manera relativa mediante el vector H, mientras que la magnetización del material se mide con el módulo de M (magnetización). Con las consideraciones antes hecha podemos decir que la derivada de H con respecto a M es cero en el infinito; esto se traduce en que M tendrá un valor límite al cual se acercará infinitamente.
Histéresis en Adsorción
La adsorción es un fenómeno que permite, por ejemplo, que ciertos gases se depositen en la superficie de un sólido quedando atrapados en la red reduciendo sus grados de libertad.
Cuando uno realiza un experimento de adsorción un procedimiento muy común es el siguiente: en un recipiente se colocan el sólido y el gas y se comienza a aumentar la presión a temperatura constante (esto se logra mediante un regulador térmico y un pistón móvil). La forma en que aumenta la cantidad de gas adsorbido con la presión depende del gas y del sólido en cuestión.
En este efecto sin embargo se ha encontrado que la relación entre estos parámetros es distinta según si el proceso sea de adsorción o de desorción.
La explicación puede estar en que cuando uno comienza a desorber el material debe vencer además de las interacciones sólido-gas(ads), las interacciones gas(ads)-gas(ads). Esto produce un fenómeno de “fricción estática” al igual que en el caso magnético
Última consideración
Si uno pudiera pensar todos los hechos desde el punto de vista microscópico se daría cuenta de que todos los fenómenos deberían presentar histéresis; sin embargo los efectos de esto suelen ser tan despreciables que no se perciben generalmente con los instrumentos que solemos manejar.
PCM (muestreo, cuantificacion y codificacion)
MODULACIÓN
La amplia naturaleza de las señales analógicas es evidente, cualquier forma de onda está disponible con toda seguridad en el ámbito analógico, nos encontramos con una onda original y una distorsión de la que tenemos que identificar la onda original de la distorsionada. Aquí surge la necesidad del audio digital ya que nos permite separar de la señal original el ruido y la distorsión. La calidad de una señal de audio no es función del mecanismo de lectura, sino que parámetros tales como respuesta en frecuencia, linealidad y ruido son sólo funciones del conversor digital - analógico empleado.
En el proceso de conversión de la forma análoga a la forma digital y viceversa aparecen tres términos matemáticos o lógicos básicos: el muestreo, la cuantización y la codificación. El muestreo es el proceso de tomar medidas instantáneas de una señal análoga cambiante en el tiempo, tal como la amplitud de una forma de onda compleja. La información muestreada permite reconstituir más o menos una representación de la forma de onda original. Sin embargo, si las muestras son relativamente escasas (o infrecuentes), la información entre las muestras se perderá. El teorema de muestreo o Teorema de Nyquist establece que es posible capturar toda la información de la forma de onda si se utiliza una frecuencia de muestreo del doble de la frecuencia más elevada contenida en la forma de onda. En los sistemas telefónicos la velocidad de muestreo ha sido establecida a 8000 muestras por segundo. Una vez que la muestra y su valor han sido obtenidos, la cuantización es el siguiente proceso para la reducción de la señal análoga compleja; éste permite aproximar la muestra a uno de los niveles de una escala designada. Por ejemplo, tomando una escala cuyos valores máximo y mínimo son quince y cero, respectivamente, y el rango está dividido en 16 niveles, las muestras tendrán que ser aproximadas a uno de estos niveles. Hay que notar que el proceso de cuantización puede introducir un ruido de cuantización; una diferencia entre el valor original de la amplitud muestreada y el valor aproximado correspondiente a la escala seleccionada, donde la magnitud de este error estará determinada por la fineza de la escala empleada.
Dentro de las distintas técnicas de conversión de señales, el sobremuestreo (oversampling) aparece se ha hecho popular en los últimos años debido a que evita muchos de los inconvenientes encontrados en los métodos convencionales de conversión digital - analógica (en adelante DAC) y analógica - digital (en adelante ADC), especialmente en aquellas aplicaciones que requieren alta resolución de representación a baja frecuencia de las señales. Los convertidores convencionales tienen dificultades a la hora de ser implementados en tecnología VLSI (Very Large Scale Integration). Estas dificultades son debidas a que los métodos convencionales precisan componentes analógicos e sus filtros y circuitos de conversión que pueden ser muy vulnerables al ruido y a las interferencias, sin embargo estos métodos precisan una velocidad de muestreo mucho menor, la frecuencia de Nyquist de la señal.
PCM, Modulacion por Codificacion de Pulsos
Se basa como la anterior en el teorema de muestreo: " Si una señal f(t) se muestrea a intervalos regulares de tiempo con una frecuencia mayor que el doble de la frecuencia significativa más alta de la señal, entonces las muestras así obtenidas contienen toda la información de la señal original. La función f(t) se puede reconstruir a partir de estas muestras mediante la utilización de un filtro paso - bajo". Es decir, se debe muestrear la señal original con el doble de frecuencia que ella, y con los valores obtenidos, normalizándolos a un número de bits dado (por ejemplo, con 8 bits habría que distinguir entre 256 posibles valores de amplitud de la señal original a cuantificar) se ha podido codificar dicha señal.
En el receptor, este proceso se invierte, pero por supuesto se ha perdido algo de información al codificar, por lo que la señal obtenida no es exactamente igual que la original (se le ha introducido ruido de cuantización). Hay técnicas no lineales en las que es posible reducir el ruido de cuantización muestreando a intervalos no siempre iguales.
PROCESO MODULACIÓN PCM
- Codificación Analógica-Digital Modulación de Amplitud de Pulso(PAM)
- Modulación PCM
- Tasa de prueba
Codificación Analógica - Digital
Este tipo de codificación es la representación de información analógica en una señal digital. Por ejemplo para grabar la voz de un cantante sobre un CD se usan se usan significados digitales para grabar la información analógica. Para hacerlos, se debe de reducir el nº infinito potencial posible de valores en un mensaje analógico de modo que puedan ser representados como una cadena digital con un mínimo de información posible. La figura 1 nos muestra la codificación analógica - digital llamada codec (codificador-decodificador).
Figura 1 Codificación analógica - digital
En la codificación analógica - digital, estamos representando la información contenida a partir de una serie de pulsos digitales (1s ó 0s).
La estructura de la señal traducida no es el problema. En su lugar el problema es como hacer pasar información de un número de valores infinitos a un número de valores limitados sin sacrificar la calidad.
Modulación de amplitud de pulso (PAM)
El primer paso en la codificación analógica - digital se llama PAM. Esta técnica recoge información análoga, la muestra (ó la prueba), y genera una serie de pulsos basados en los resultados de la prueba. El término prueba se refiere a la medida de la amplitud de la señal a intervalos iguales.
El método de prueba usado en PAM es más eficaz en otras áreas de ingeniería que en la comunicación de datos (informática). Aunque PAM está en la base de un importante método de codificación analógica - digital llamado modulación de código de pulso (PCM).
En PAM, la señal original se muestra a intervalos iguales como lo muestra la figura 2. PAM usa una técnica llamada probada y tomada. En un momento dado el nivel de la señal es leído y retenido brevemente. El valor mostrado sucede solamente de modo instantáneo a la forma actual de la onda, pero es generalizada por un periodo todavía corto pero medible en el resultado de PAM
Figura 2 PAM
El motivo por el que PAM sea ineficaz en comunicaciones es por que aunque traduzca la forma actual de la onda a una serie de pulsos, siguen teniendo amplitud (pulsos)(todavía señal analógica y no digital). Para hacerlos digitales, se deben de modificar usando modulación de código de pulso (PCM)
Modulación PCM
PCM modifica los pulsos creados por PAM para crear una señal completamente digital. Para hacerlo, PCM, en primer lugar, cuantifica los pulsos de PAM. La cuantificación es un método de asignación de los valores íntegros a un rango específico para mostrar los ejemplos. Los resultados de la cuantificación están representados en la figura 3.
Figura 3 Señal PAM cuantificada
a figura4 muestra un método simple de asignación de signo y magnitud de los valores para muestras cuantificadas. Cada valor es traducido en su equivalente binario 7-bits. El octavo bit indica el signo.
Figura 4 Cuantificación usando signo y magnitud
Los dígitos binarios son transformados en un señal digital usando una de las técnicas de codage digital-digital. La figura 5 muestra el resultado de la modulación de codage de pulso de la señal original codificada finalmente en señal unipolar. Solo se muestran los 3 primeros valores de prueba.
Figura 5 PCM
PCM se construye actualmente a través de 4 procesos separados: PAM, cuantificación, codage digital-digital. La figura 6 muestra el proceso entero en forma de gráfico. PCM es el método de prueba usado para digitalizar la voz en la transmisión de línea-T en los sistemas de telecomunicaciones en América del Norte.
Figura 6 De señal analógica a código digital PCM
Tasa de Prueba
Como se puede ver a partir de las figuras anteriores, la exactitud de la reproducción digital de una señal analógica depende del número de pruebas tomadas. Usando PAM y PCM se puede reproducir una onda con exactitud si se toman una infinidad de pruebas, o se puede reproducir de forma más generalizada si se tomas 3 pruebas. La cuestión es: ¿cuántas muestras son suficientes?.
Actualmente , se requiere poca información para la reconstrucción de señal analógica. En lo referente al Teorema de Nyquist, para asegurarse que la reproducción exacta de una señal analógica original usando PAM, la tasa de prueba debe ser al menos el doble de la frecuencia máxima de la señal original. De este modo, si deseamos hacer muestra con la información de voz de un teléfono que tiene como frecuencia máxima 3300 HZ, la tasa de muestra debe ser de 6600 pruebas/s. En la práctica, actualmente se toman 8000 muestras para compensar las imperfecciones del proceso.
Figura 7 Teorema de Nyquist
TERMINOS IMPORTANTES
PCM (PULSE CODE MODULATION)
Modulación por código de impulsos.- Es un proceso digital de modulación para convertir una señal analógica en un código digital. La señal analógica se muestrea, es decir, se mide periódicamente. En un convertidor analógico/digital, los valores medidos se cuantifican, se convierten en un número binario y se descodifican en un tren de impulsos. Este tren de impulsos es una señal de alta frecuencia portadora de la señal analógica original.
PCM BINARY CODE
Código binario PCM.- Un código de impulsos en el que los valores cuantificados son identificados por números tomados en orden. Este término no debe emplearse para transmisión por líneas.
PCM MULTIPLEX EQUIPMENT
Equipo múltiplex PCM.- Un equipo para derivar una señal digital simple, a una velocidad de dígitos definida, de dos o más canales analógicos mediante una combinación de modulación por código de impulsos y un multiplexado por división de tiempo (multiplexor) y también para realizar la función inversa (demultiplexor). La descripción debe ir seguida de una velocidad de dígitos binarios equivalente; p. ej., equipo múltiplex PCM de 2.048 kbit/s.
Teorema de Nyquist
El teorema de muestreo de Nyquist-Shannon, también conocido como teorema de muestreo de Whittaker-Nyquist-Kotelnikov-Shannon, criterio de Nyquist o teorema de Nyquist, es un teorema fundamental de lateoría de la información,de especial interés en las telecomunicaciones.Este teorema fue formulado en forma de conjetura por primera vez por Harry Nyquist en el año 1928 ("Certain topics in telegraph transmission theory"), y fue demostrado formalmente por Claude E. Shannonen el año 1949 ("Communication in the presence of noise"). La intención del sueco Harry Nyquist al formular este teorema era la de obtener una grabación digital de calidad y también se puede conocer con el nombre de "Condición de Nyquist". Si hacemos un muestreo a un bajo valor, hay una posibilidad de que la señal original no esté únicamente definido por nuestra señal mostrejat. Si esto pasa, no tenemos ninguna garantía que la señal esté correctamente reconstruido. Por este motivo se creó el teorema de Nyquist.
En palabras textuales el teorema dice: " La frecuencia de muestreo mínima que se requiere para realizar una grabació digital de calidad, tiene que ser superior al doble de la frecuencia de audio de la señal analógica que se intenta digitalizar y grabar".
El teorema demuestra que la reconstrucción exacta de una señal [Ola periódica] continuo en banda baso a partir de sus muestras es matemáticamente posible si la señal se encuentra limitado en banda y la tasa de muestreo es superior al doble de su ancho de banda. Dedo de otro modo, la información completa de la señal analógica original que cumple el criterio anterior se encuentra descrita por la serio total de muestras que se han obtenido del proceso de muestreo. Por lo tanto, todos los valores intermitjos entre las diferentes muestras quedan definidos por las muestras obtenidas.
Si la frecuencia más alta contenida en una señal analógica es y la señal se muestra a , entonces se puede recuperar totalmente a partir de sus muestras mediante la siguiente función de interpolación:
Así, se puede expresar cómo:
dónde son las muestras de ..
El concepto de anchura de banda no necesariamente es sinónimo del valor de la frecuencia más alta de la señal. Las señales que lo cumplen se los denomina señales de banda base, y no todas las señales comparten esta característica.
Cuando queremos convertir una señal analógica a digital, primero pondremos un filtro llamado "filtro anti-Aliasing". Este filtro tiene que cumplir que su frecuencia de corte sea menor que la frecuencia de muestreo dividida por 2. Es decir, este filtro nos asegura que se cumple el Teorema de Nyquist y de este modo no hay solapament frecuencial.
Alexander Graham Bell
Alexander Graham Bell, inventor escocés nacido el 3 de Marzo de 1847 Edimburgo, que estudió en Edimburgo y en Londres.
En su juventud cabe destacar su gran vinculación a los sordos.
Siguiendo la tradición de su padre, (un destacado estudioso de las formas de comunicación de los sordos) los tres hijos se dedicaron a la enseñanza del lenguaje a los sordos. El interés de Alexander, el hijo menor, hacia ellos, creció años después, cuando se casó con una mujer sordomuda.
En 1870 la familia se trasladó a Canadá, tras la muerte de los hermanos mayores, llegando a Estados Unidos en 1871, donde comenzaron una nueva vida.
Alexander fue el único hijo superviviente. Instaló en Boston un centro de enseñanza para sordos, consiguió trabajo como maestro de fisiología vocal para la Universidad de Boston, y comenzó a estudiar la transmisión del habla.
Éstos estudios y la colaboración de otros expertos culminaron el 1876 con la invención del teléfono. Como curiosidad, el día de la patente otro inventor llamado Elisha Gray también se dirigió a la oficina para intentar quedar como el verdadero inventor. Sin embargo, Bell fue el primero en efectuar una demostración de su funcionamiento, pero aun así tuvo problemas y definitivamente en 1893 se quedó con la patente oficialmente.
Un teléfono funciona básicamente así:
·Al hablar, la voz origina unas ondas sonoras que son captadas por un micrófono. Estas ondas hacen que vibrar undiafragma. Estas vibraciones presionan un depósito con carbón granulado. El depósito, al ser presionado induce una corriente eléctrica, que es la que viaja por la línea telefónica.
·Al otro lado, el equipo receptor convierte la señal eléctrica en sonido. La señal eléctrica llega a dos electroimanes que hacen vibrar un diafragma metálico, que reproduce voz original mediante un altavoz. Así, oímos lo que ha dicho el emisor.
Obtuvo el premio “Volta” francés por su invento en 1880, cuando el teléfono ya empezaba a utilizarse bastante. Recibió 50.000 francos que le vinieron muy bien, ya que con este dinero fundó el Laboratorio Volta en Washington.
En éste laboratorio ingenió otros muchos artilugios;
-El fotófono, que transmite sonidos por rayos de luz. -El audiómetro, que mide la agudeza de oído. -La balanza de inducción, que localiza objetos metálicos en el cuerpo humano. -El primer cilindro de cera para grabar, que sentó las bases del gramófono moderno. -Incluso un método para localizar ice-bergs.
Pero, personalmente para Alexander Graham Bell comenzaba una nueva época en su vida. Ya con la nacionalidad estadounidense, fue uno de los fundadores de la revista National Geographic, y en 1895 empezó su interés por la aeronáutica.
Su más destacado invento en este período fue el “hydrodrome”, un barco desarrollado en 1917, que alcanzó los 113 Km./h gracias a que se deslizaba sobre la superficie del agua rápidamente. Fue el más rápido del mundo durante muchos años.
También empezó a construir enormes cometas en Canadá, queriendo averiguar si serían capaces de realizar algún tipo de transporte.
Llegó a la conclusión de que la mejor forma para una cometa era la triangular, porque su construcción era más fácil y rígida que la de cualquier otro.
Tras múltiples arreglos y mejoras, en el año 1905, una cometa compuesta de 1300 triángulos, elevó, por accidente, a uno de sus manipuladores, hasta una altura de 10 m.
Animado por este hecho, Bell fundó en 1907, junto con un grupo de entusiastas de la aeronáutica, la Asociación de Experimentos Aéreos para continuar en sus estudios.
Los cometas eran cada vez mayores, y le dieron resultados más o menos alentadores. Pero, sin embargo, en un último experimento con un cometa de más de 3.500 celdas, la prueba fracasó estrepitosamente debido a la potencia insuficiente de un pequeño motor que habían instalado en la cometa.
Alexander se dio cuenta de que todo había terminado, pero hasta en los últimos años de su vida siguió estudiando y aprendiendo cosas nuevas. Retomó el tema de las causas y herencia de la sordera, y escribió el libro “Duración de la vida y condiciones relacionadas con la longevidad” en 1918.
Murió el 2 de agosto de 1922, a la edad de 75 años, en Baddeck, Canadá, donde hoy en día se encuentra el Museo Alexander Graham Bell.
Espacio o Espectro Radioelectrico
Quizás parezca un término y tema muy técnico, pero el espectro radioeléctrico se trata del medio por el cual se transmiten las frecuencias de ondas de radio electromagnéticas que permiten lastelecomunicaciones (radio, televisión, Internet, telefonía móvil,televisión digital terrestre, etc.), y son administradas y reguladas por los gobiernos de cada país. La definición precisa del espectro radioeléctrico, tal y como la ha definido la Unión Internacional de Telecomunicaciones (UIT), organismo especializado de las Nacionees Unidas con sede en Ginebra (Suiza) es:
las frecuencias del espectro electromagnético usadas para los servicios de difusión y servicios móviles, de policía, bomberos,radioastronomía, meteorología y fijos.” Este “(…) no es un concepto estático, pues a medida que avanza la tecnología se aumentan (o disminuyen) rangos de frecuencia utilizados en comunicaciones, y corresponde al estado de avance tecnológico.”
El espectro radioeléctrico, tal y como se puede apreciar en el gráfico de arriba, se divide en bandas de frecuenciaque competen a cada servicio que estas ondas electromagnéticas están en capacidad de prestar para las distintas compañías de telecomunicaciones avaladas y protegidas por las instituciones creadas para tal fin de los estados soberanos. Un repaso corto a las bandas de frecuencia nos indica que:
* Banda UHF: en este rango de frecuencia, se ubican las ondas electromagnéticas que son utilizadas por las compañías de telefonía fija y telefonía móvil, distintas compañías encargadas del rastreo satelital de automóviles y establecimientos, y las emisoras radiales como tal. Las bandas UHF pueden ser usadas de manera ilegal, si alguna persona natural u organización cuenta con la tecnología de transmisión necesaria para interceptar la frecuencia y apropiarse de ella con el fin de divulgar su contenido que no es regulado por el Gobierno.
* Banda VHF: También es utilizada por las compañías de telefonía móvil y terrestre y las emisoras radiales, además de los sistemas de radio de onda corta (aficionados) y los sistemas de telefonía móvil en aparatos voladores. Es una banda mucho más potente que puede llegar a tener un alcance considerable, incluso, a nivel internacional.
* Banda HF: Tiene las mismas prestaciones que la banda HF, pero esta resulta mucho más “envolvente” que la anterior puesto que algunas de sus “emisiones residuales” (pequeños fragmentos de onda que viajan más allá del aire terrestre), pueden chocar con algunas ondas del espacio produciendo una mayor cobertura de transmisión.
El concepto de espectro radioeléctrico es, entonces, una parte importante de nuestra vida cotidiana.
Suscribirse a:
Entradas (Atom)