Licencia Profesional de Ingeniería

¿Sabías que existe una licencia profesional de Ingeniería para trabajar internacionalmente?

sábado, 17 de septiembre de 2016

Licencia Profesional de Ingeniería


Licencia Profesional de Ingeniería


Imagina que tu ciudad quiere contener un río para crear una presa, pero un millón de personas viven cerca de la orilla, por debajo de la presa. Si la presa se rompiese, ese millón de personas moriría en la inundación. ¿Querrías que un ingeniero de 22 años recién graduado en ingeniería civil diseñase la presa? Probablemente no. Y que hay muchas otras cosas de las que seguramente no quieras que se encargue tampoco: prácticamente cualquier estructura, cualquier rascacielos y cualquier vehículo entra dentro de esta categoría. Si el objeto se está diseñando es importante, lo más seguro es que prefieras que un ingeniero sumamente competente, experimentado y disciplinado se encargue del proyecto.

Este es el objetivo de la licencia profesional de ingeniería, que se creó en E.U.A en 1907, según la cuál existen cuatro requisitos que cualquier ingeniero estadounidense debe cumplir para obtener su licencia en su área de especialización.

1.- Obtener un título de cuatro años de Ingeniería en una universidad acreditada por la ABET (por sus siglas en ingés), el Consejo de Acreditación para la Ingeniería y Tecnología, garantiza que las universidades ofrecen carreras de buena calidad.

2.- Realizar y aprobar el examen de Fundamentos de Ingeniería (FE, por sus siglas en inglés). Se trata de un examen de 5 horas de duración que se divide por especialidad, Por ejemplo, los ingenieros químicos y los ingenieros civiles hacen examenes diferentes. Este examen suele hacerse poco después de la graduación.

3.- Trabajar durante cuatro años con un ingeniero profesional con una beca de formación o similar para adquirir una experiencia valiosa.

4.- Realizar y aprobar el examen de Principios y Práctica de Ingeniería (PE, por sus siglas en inglés). Es un examen sumamente especializado de 8 horas que se realiza después de trabajar durante 4 años con un ingeniero profesional. Por ejemplo, hay diferentes exámenes para un ingeniero civil de estructuras y para uno de transporte.

A partir de ese momento, un ingeniero puede solicitar una licencia de ingeniero profesional en un estado específico. Una vez se obtiene su licencia, un ingeniero puede firmar y sellar planes de ingeniería que requieren la participación de un ingeniero profesional, es decir, todos los proyectos de obras públicas y muchos proyectos privados de gran magnitud.

Países Afiliados




Share:

miércoles, 8 de junio de 2016

Tren de Levitación Magnética

El tren de levitación magnética


Cuando un tren se mueve a velocidades inferiores a 160 Km /h, sus ruedas de acero funcionan muy bien. Son de bajo coste y eficientes, no causan problemas.

Por encima de 160 Km/h empiezan las complicaciones, cada vez más difíciles de resolver para los ingenieros. Uno de estos problemas es la vibración. Otros, la aceleración y frenado. En un punto dado del frenado, las ruedas de acero pierden agarre con la vía y resbalan. El simple acto de mantener el tren alineado sobre el carril crea fricción con los flancos de la rueda, especialmente en las curvas.
La solución a todos estos problemas es eliminar las ruedas. Lo mejor para reemplazarlas actualmente inventado es la levitación magnética. El concepto del tren "maglev" existe desde que le fueron concedidas una serie de patentes al ingeniero alemán Hermann Kemper para este dispositivo entre 1937 y 1941.

El tren de levitación magnética integra un conjunto de tres efectos magnéticos:
1.- Un conjunto de imanes levanta el tren del suelo para que flote.
2.- Otro mantiene el tren con la vía equilibrado horizontalmente. (Especialmente en las curvas).
3.- El ultimo conjunto crea un motor lineal para acelerar y desacelerar el tren. (Se pueden instalar conjuntamente con los de elevación).

Al modularse el juego de electroimanes, el tren puede controlar con mucha precisión su altura sobre el suelo, así como su velocidad, aceleración y desaceleración.

Además de la ventaja que supone su suavidad en el desplazamiento, aceleración y desaceleración, al no haber ruedas también se elimina la fricción de estas. A pesar de ello, a velocidades superiores a 320 Km/h, la mayor parte de la energía se consume para superar la fricción del aire. Por tanto, los ingenieros prestan mucha atención a la aerodinámica, que es en este caso tan importante como lo sería en un avión a reacción.

El tren maglev Shangai de China empezó a presar servicio en 2004 y fue el primer transporte público que funcionó a más de 320 Km/h, alcanzando una velocidad máxima de 500 Km/h con recorridos regulares (más de 100 al día) de su línea; 30 Km en 7 minutos.

Share:

jueves, 2 de junio de 2016

Techo Retráctil

El techo retráctil

Imagina un techo diseñado para cubrir varias hectáreas. En realidad, vemos techos como estos continuamente, siempre que entramos en grandes centros comerciales. Un gran supermercado puede ocupar 1.6 hectáreas o más bajo un mismo techo. Si mieras hacia arriba la próxima vez que vayas a un establecimiento de este tipo, es probable que veas una serie de vigas de acero o armazones sostenidos por columnas distribuidas de manera uniforme por todo el establecimiento. Es una estructura de techo sencilla de bajo coste.


Ahora imagina que quieres diseñar un techo de ese tamaño o más grande y los dos requisitos adicionales son que, no pueden haber columnas en medio y que se debe replegar completamente para que el interior quede al descubierto. Este es exactamente el desafío al que se enfrentan los ingenieros al diseñar estadios con techos móviles, patentados por el arquitecto norteamericano David S. Miller en 1963.


Un enfoque común para un techo retráctil es utilizar varios paneles que se deslizan unos debajo de otros. Las cuatro consideraciones precisas desde el punto de vista de la ingeniería son:
1.- Los paneles tienen que poder deslizarse hacia delante y hacia atrás.
2.- Pueden pesar millones de kilos.
3.- Tienen que soportar un peso adicional en algunos climas como la nieve y el hielo.
4.- Tienen que abarcar largas distancias, quizá 213 metros o más.



Teniendo en cuenta estos criterios, los paneles comienzan a dar la impresión de ser puentes, y es así como han sido diseñados. Un panel por lo general está formado por largas vigas que puede abarcar todo el estadio. Los materiales del techo se sustentan en la parte superior de las vigas.




Los dos extremos de estos techos-puente están colocados sobre ruedas similares a las ruedas de un tren que se desplaza por raíles. Los motores eléctricos fijan los paneles del techo con un movimiento lento. Un techo podría tardar 15 minutos en retraerse.

La ventaja de un estadio con techo retráctil es fácil de comprender. Cuando hace un buen tiempo, pueden proporcionar la experiencia de un estadio abierto. Cuando hace mal tiempo, el techo se cierra y el juego puede continuar. Los ingenieros son capaces de crear el mejor ambiente en cualquier caso para los jugadores y para el público.

Share:

domingo, 29 de mayo de 2016

Enanas Blancas

Las estrellas enanas blancas y el límite de Chandrasekhar

En su canción “Farmer’s Almanac”, Johnny Cash explicaba que Dios nos dio la oscuridad para que pudiésemos ver las estrellas. Sin embargo, entre las estrellas más difíciles de encontrar están las que presentan el especial estado de muerte estelar llamado enana blanca.

La mayor parte de las estrellas, por ejemplo, nuestro Sol, terminan su vida como densas enanas blancas. En la Tierra, una cucharadita de materia procedente de una enana blanca pesaría varias toneladas.

Los científicos sospecharon por primera vez de la existencia de las enanas blancas en 1844, cuando se descubrió que Sirio, la estrella más brillante del cielo del norte, bailaba de un lado a otro como si algún vecino celestial, demasiado oscuro como para que lo viésemos, tirara de ella.




Esta estrella vecina se observó por fin en 1862, y parecía, sorprendentemente, más pequeña que la Tierra pero más masiva que el Sol. Las enanas blancas, todavía calientes, son el resultado del colapso de las estrellas moribundas que ya han consumido todo su combustible nuclear.

Las enanas blancas no rotatorias tienen una masa máxima que es 1.4 veces la masa del Sol, una cifra que calculó en 1931 el joven Subrahmanyan Chandrasekhar en un barco que lo llevaba desde la India a Inglaterra para comenzar un posgrado en la universidad de Cambridge. Cuando las estrellas pequeñas o intermedias empiezan a colapsarse, sus electrones se aplastan unos contra otros y alcanzan un estado en el que la densidad ya no puede aumentar debido al principio de exclusión de Pauli, que crea una presión de degeneración electrónica hacia el exterior. 
Sin embargo, cuando se supera la masa solar en 1.4 veces, esta degeneración electrónica ya no es capaz de contrarrestar la aplastante fuerza gravitatoria, y la estrella continúa su colapso (hasta convertirse, por ejemplo, en una estrella de neutrones) o elimina el exceso de masa más allá de su superficie en una explosión de supernova. Chandrasekhar ganó el premio Nobel en 1983 por sus estudios acerca de la evolución estelar.



Las enanas blancas se enfrían y dejan de ser visibles después de miles de millones de años: se convierten en enanas negras. Las enanas blancas empiezan siendo plasma, pero se ha predicho que en etapas más avanzadas de enfriamiento muchas parecerán, desde el punto de vista estructural, a cristales gigantes.

Share:

miércoles, 27 de abril de 2016

Cómo evertir una esfera

Cómo evertir una esfera

Durante muchos años, los topólogos supieron que era teóricamente posible darle la vuelta a una esfera, o evertirla, aunque no tenían la menor idea de cómo hacerlo. Cuando los gráficos por ordenador estuvieron disponibles para los investigadores, el matemático y experto en gráficos Nelson Max elaboró una animación que finalmente ilustraba la transformación de la esfera. En 1997 el video de Max Turning a Sphere Inside Out se basó en el trabajo de 1967 de Bernard Morin, un topólogo ciego de nacionalidad francesa, sobre la eversión de la esfera. La animación se centra en cómo la eversión puede realizarse pasando la superficie a través de ella misma sin realizar ningún orificio ni pliegues. Los matemáticos pensaban que el problema no se podía resolver hasta que hacia 1958 el matemático estadounidense Stephen Smale demostró lo contrario. Con todo, nadie podía visualizar claramente el movimiento sin los gráficos.

Cuando hablamos de la eversión de una esfera, no se trata de darle la vuelta a un balón de playa estirando el balón desinflado por su boquilla y volviéndolo a inflar. Estamos hablando de una esfera sin orificios. Los matemáticos intentan visualizar una esfera hecha de membrana fina que pueda estirarse incluso atravesarse sin desgarrarse ni producirse curvas o pliegues evidentes. Evitar dichos pliegues marcados hacía de la eversión matemática de la esfera una tarea difícil.

A finales de los años noventa, las matemáticas dieron un paso adelante y descubrieron una vía geométricamente óptima, una que minimiza la energía necesaria para contraer la esfera hasta su transformación. Esta eversión óptima de la esfera, u optieversión, es en la actualidad la protagonista de una película de gráficos en color titulada The Optiverse.  Sin embargo, no podemos utilizar los principios que se presentan en la película para darle la vuelta a un balón real cerrado. Esto se debe a que los balones y globos reales no están hechos de un material que pueda atravesarse así mismo. No es posible evertir objetos sin realizar un agujero en ellos. 


Share:

domingo, 17 de abril de 2016

Radioactividad

La radioactividad

“El mejor modo de pensar en el comportamiento de los núcleos radioactivos es imaginar unas palomitas de maíz haciéndose en el horno, la mayoría parecen estallar aleatoriamente en unos cuantos minutos y solo unos pocos parecen no tener intención de hacerlo. De manera similar, los núcleos más conocidos son estables y esencialmente idénticos a cómo eran desde hace siglos. Sin embargo, hay otros tipos de núcleos inestables que desprenden fragmentos a medida que se desintegran. La radioactividad es la emisión de este tipo de partículas.”
Robert Hazen y James Tregil

El descubrimiento de la radioactividad se suele asociar a las observaciones efectuadas en 1896 por el científico francés Henri Becquerel cuando detectó la fosforescencia de las sales de uranio, aunque, unos cuarenta años antes, el fotógrafo francés Abel Niépce de Saint-Victor ya había referido hallazgos similares. Aproximadamente un año antes del descubrimiento de Becquerel, el físico alemán Wilhelm Conrad Rontgen descubrió por casualidad los rayos X mientras experimentaba con tubos de descarga eléctrica, y Becquerel se interesó por ver si los compuestos fosforescentes (aquellos que emiten luz visible cuando se estimulan con luz solar u otras ondas excitantes) también podrían producir rayos X. Becquerel colocó sales de uranio en una placa fotográfica envuelta en papel negro. Quería ver si este compuesto fosforecía y producía rayos X que pudieran oscurecer la placa cuando la luz del Sol impactaba en el compuesto.

Para sorpresa de Becquerel, el compuesto de uranio oscurecía la placa fotográfica aun cuando el paquete estuviera graduado en un cajón. El uranio parecía emitir alguna clase de “rayos” penetrantes. En 1898, los físicos Marie y Pierre Curie descubrieron 2 nuevos elementos radioactivos, el polonio y el radio. Por desgracia, los riesgos de la radioactividad no se descubrieron enseguida y algunos médicos empezaron a prescribir, entre otros remedios peligrosos, tratamientos a base de radio. Más adelante, Enerst Rutherford y Frederic Soddy descubrieron que este tipo de elementos en realidad se transformaban en otros elementos en el proceso radioactivo.

Los científicos lograron identificar tres variantes comunes de radioactividad: partículas alfa (núcleos ionizados de helio), rayos beta (electrones de alta energía) y rayos gamma (radiación electromagnética de alta energía). Stephen Battersby ha señalado que, en la actualidad, la radioactividad se utiliza para obtener imágenes médicas, eliminar tumores, fechar objetos antiguos, impulsar naves espaciales y conservar alimentos.


Share:

viernes, 15 de abril de 2016

El Carbono 14

El carbono 14

“Si usted estuviese interesado en descubrir la edad de las cosas, el lugar perfecto sería la universidad de Chicago en los años 40. Willard Libby estaba trabajando en el método de datación por radiocarbono, que permitiría que los científicos obtuvieran una estimación precisa de la edad de huesos y otros restos orgánicos, algo que no habían sido capaces de hacer hasta entonces”.
Bill Bryson

La datación por radiocarbono consiste en la medición de la cantidad de un elemento radioactivo, el carbono-14 (14C), en una muestra que contenga carbono. El método se basa en el hecho de que el 14C se crea en la atmósfera cuando los rayos cósmicos chocan con átomos de nitrógeno. Así, el 14C se incorpora a las plantas, con las que los animales se alimentan después. La proporción de 14C en el cuerpo de un animal vivo coincide aproximadamente con la de la atmósfera. El 14C se desintegra de forma exponencial y se convierte en nitrógeno-14. Cuando el animal muere cesa el suministro de 14C procedente del medio, de modo que sus restos van perdiendo 14C lentamente.

Si se conoce la cantidad de 14C presente en una muestra, se puede calcular su antigüedad siempre que no sea superior a 60,000 años. En las muestras más antiguas, la cantidad de 14C es demasiado pequeña como para medirla con precisión. El periodo de semidesintegración del 14C es aproximadamente 5,730 años, lo que significa que cada 5,730 años la cantidad de 14C de una muestra se reduce a la mitad. Dado que la cantidad de 14C atmosférico sufre pequeñas variaciones con el tiempo, se hacen pequeñas calibraciones para mejorar la precisión de la medida. Además, como consecuencia de los ensayos armamentísticos con bombas atómicas, el 14C atmosférico aumentó en la década de 1950.

Se puede utilizar un espectrómetro de masas para detectar la proporción de 14C en muestras que solo contienen unos pocos miligramos.

Antes de que existiera este método era muy difícil obtener dataciones fiables de acontecimientos anteriores a la primera dinastía de Egipto (año 3000 a.C.) Resultaba muy frustrante para los arqueólogos, deseosos de saber, por ejemplo, en qué momento pintaron los cromañones las cuevas de Lascaux o cuándo terminó la última glaciación.

El carbono es muy común, así que hay muchos materiales potencialmente válidos para su estudio con radiocarbono, por ejemplo, esqueletos hallados en excavaciones arqueológicas, carbón, cuero, madera, polen, cuarnos…

Share:

domingo, 10 de abril de 2016

Tercera Ley de la Termodinámica

El Tercer Principio de la Termodinámica

En cierta ocasión el escritor y humorista Mark Twain contó la historia de un clima tan frío que la sombra de los marineros se congelaba en la cubierta. ¿Cuánto frío podría alcanzar nuestro entorno?
Desde la perspectiva de la física clásica, el tercer principio de la termodinámica afirma a medida que la temperatura de un sistema se aproxima a cero absoluto ( 0K , -273.15°C ), todos los procesos se detienen y la entropía del sistema se acerca a un valor mínimo. Desarrollada por el químico alemán Walther Nerst en torno a 1905, la ley puede enunciarse del siguiente modo: cuando la temperatura de un sistema se aproxima al cero absoluto, la entropía, o desorden (S), se aproxima a una constante S0. En términos clásicos, la entropía de una sustancia pura y perfectamente cristalina sería 0 si la temperatura pudiera reducirse realmente hasta cero absoluto.

Si nos servimos del análisis clásico, todo movimiento se detiene en cero absoluto. En cualquier caso, el movimiento del punto cero de la mecánica cuántica permite a los sistemas en su estado de mínima energía posible (es decir, su estado fundamental) tener la probabilidad de encontrarse en amplias regiones del espacio. Así, dos átomos enlazados no están separados por una distancia fija, sino que podemos imaginar una rápida vibración subyacente, incluso en el cero absoluto. En lugar de afirmar que el átomo permanece inmóvil, decimos que se encuentra en un estado del que no se puede extraer más energía; la energía restante se denomina energía del punto cero.

La expresión del movimiento del punto cero se utiliza en física para describir el hecho de que los átomos de un sólido (incluso de un sólido superfrío) no permanecen en puntos geométricos exactos de la red, si no que existe una distribución de probabilidad tanto para sus posiciones como para sus momentos. Los científicos, aunque parezca increíble, han conseguido temperaturas de 100 picokelvins (.0000001K por encima del 0 adsoluto) enfriando un trozo de metal llamado rodio.
Es imposible enriar un cuerpo hasta el cero absoluto mediante un proceso finito. 

Según el físico James Trefil:
“No importa lo inteligentes que lleguemos a ser, la tercera ley nos dice que nunca podremos cruzar la frontera final que nos separa del cero absoluto”.

Share:

sábado, 9 de abril de 2016

El Principio Antrópico

El Principio Antrópico

Según el físico James Trefil:
“A medida que mejora nuestro conocimiento acerca del cosmos hace más patente que si el universo se hubiera estructurado de una forma ligeramente distinta, no estaríamos aquí para verlo. Es como si estuviera hecho para nosotros, un jardín del Edén con un diseño insuperable”.

Esta afirmación es fuente de continuo debate, y el principio antrópico fascina por igual a científicos y legos; el primero en tratarlo con detalle por escrito fue el astrofísico Robert Dicke, en 1961; más tarde fue desarrollado, entre otros, por el físico Brandon Carter. Este controvertido principio gira en torno a la observación de que algunos parámetros físicos parecen ajustados para permitir el desarrollo de formas de vida. Debemos nuestras vidas al carbono, por ejemplo, que se fabricó por primera vez en las estrellas, antes de la formación de la Tierra. Las reacciones nucleares que facilitan la producción del carbono dan la impresión, al menos para algunos investigadores, de ser las “justas” para facilitar este proceso.

Si todas las estrellas del universo fueran más pesadas que tres veces nuestro Sol, solo vivirían unos 500 millones de años y la vida pluricelular no tendría tiempo de desarrollarse. Si la velocidad de expansión del universo un segundo después del Big Bang hubiera sido un poco más pequeña, tan solo una cienmilbillonésima parte más pequeña, el universo hubiera vuelto a contraerse antes de alcanzar su tamaño actual. Por otra parte, el universo podría haberse expandido con una velocidad mayor, de modo que los protones y los electrones nunca se hubiesen unido para formar átomos de hidrógeno. Un cambio extremadamente pequeño en la fuerza de gravedad o en las interacciones nucleares débiles podría evitar la evolución de formas de vida más avanzadas.


Podrían existir un número infinito de universos aleatorios (sin diseño); el nuestro es, simplemente, uno que permite la vida basada en el carbono. Algunos investigadores han especulado con la idea de que unos universos-madre dan a luz otros universos que heredan un conjunto de leyes físicas similares a las de sus progenitores en un proceso que recuerda a la evolución de las características biológicas de la vida terrestre. Los universos con muchas estrellas pueden vivir mucho y tienen, por tanto, la oportunidad de tener muchos hijos llenos de estrellas; así, es posible que nuestro universo estelar no sea tan raro después de todo.


Share:

viernes, 8 de abril de 2016

Antimateria

La Anti-Materia

“Las naves espaciales de la ciencia ficción suelen estar propulsadas por antimateria, pero la antimateria es real e incluso se ha producido artificialmente en la Tierra. ‘Imagen especular’ de la materia, la antimateria no puede coexistir con la materia demasiado tiempo; ambas se aniquilan en medio de un estallido de energía cuando entran en contacto. La misma existencia de la antimateria ya señala la existencia de simetrías profundas en la física de partículas”.
Joanne Baker

El físico británico Paul Dirac afirmó que en cierta ocasión que las matemáticas abstractas que estudiamos ahora nos permiten vislumbrar la física del futuro. De hecho, una ecuación suya de 1928 que tenía que ver con el movimiento de los electrones, predijo la existencia de la antimateria, que se descubrió después. Según las fórmulas, el electrón debía tener una antipartícula con la misma masa, pero de carga eléctrica positiva. 

En 1932, el físico estadounidense Carl Anderson observó experimentalmente esta nueva partícula y la denominó positrón. En 1955 se produjo el antiprotón en el Bevatrón, un acelerador de partículas de Berkeley. En 1995, físicos del CERN (Organisation Européenne pour la Recherche Nucléaire) crearon el primer átomo de anti-hidrógeno en sus instalaciones europeas. El CERN es el laboratorio de física de partículas más grande del mundo.

En la actualidad las reacciones materia-antimateria encuentran aplicaciones prácticas bajo la forma de la tomografía de emisión de positrones, o PET. Esta técnica médica de formación de imágenes está relacionada con la detección de rayos gamma (radiación de alta energía) emitidos por un radioisótopo emisor de positrones (trazador), un átomo con un núcleo inestable.

Los físicos actuales siguen ofreciendo hipótesis para explicar por qué el universo visible parece compuesto casi en su totalidad por materia, y no por antimateria. ¿Es posible que existan regiones del universo en las que predomine la antimateria?

En una inspección casual la antimateria sería casi indistinguible de la materia ordinaria. Según el físico Michio Kaku, “se pueden formar anti-átomos a partir de antielectrones y antiprotones. Son posibles incluso la anti-gente y los anti-planetas. Sin embargo, la antimateria se aniquila con un estallido de energía si entra en contacto con la materia ordinaria. Si alguien sostuviera un trozo de antimateria en la mano, explotaría de inmediato con la fuerza de miles de bombas de hidrógeno”.

Share:

jueves, 7 de abril de 2016

Circuitos integrados

Los circuitos integrados




“Da la impresión que el circuito integrado estaba destinado a inventarse”  escribe la historiadora de la tecnología Mary Bellis. “Dos inventores independientes, cada uno de los cuales desconocía las actividades del otro, inventaron sendos circuitos integrados, casi idénticos, prácticamente a la vez”.

En electrónica, un circuito integrado, o microchip, es un circuito electrónico miniaturizado cuya construcción se basa en dispositivos semiconductores. Se utilizan en innumerables equipos electrónicos, desde las máquinas de café hasta los aviones de combate. La conductividad de los materiales semiconductores puede controlarse mediante la introducción de un campo eléctrico. Con la invención del circuito integrado monolítico (formado por un único cristal), los transistores, resistencias, condensadores y todas las conexiones, tradicionalmente separados, pueden colocarse en un único cristal (o chip) fabricado con un material semiconductor. Si se compara con el ensamblaje manual de los circuitos diferenciados formados por componentes individuales, como resistencias y transistores, el circuito integrado puede fabricarse de forma más eficaz gracias al proceso de fotolitografía, que se basa en la transferencia selectiva de formas geométricas desde una plantilla a una superficie, por ejemplo una oblea de silicona. La velocidad operativa también es mayor en los circuitos integrados porque los componentes son pequeños y están estrechamente compactados.

El físico Jack Killy inventó el circuito integrado en 1958. El físico Robert Noyce también lo inventó, de forma independiente, seis meses después, Noyce utilizó silicona para el material semiconductor; Killy utilizó germanio. En 2009, un chip del tamaño de un sello podía contener 1.200 millones de transistores. Los avances en capacidad y densidad, junto al descenso del coste, hicieron que el físico Gordon Moore afirmara “si la industria del automóvil avanzara tan deprisa como la de los semiconductores, un Rolls Royce consumiría un litro de gasolina cada 250.000 kilómetros, y sería más barato tirarlo que aparcarlo”.

Cuando Killy inventó el circuito integrado acababa de empezar a trabajar en Texas Instruments. Fue en vacaciones, a finales de Julio y la empresa está casi vacía. En septiembre, Killy ya había construido un modelo que funcionaba, y el 6 de febrero la empresa registró la patente.       




Share:

Velocidad Límite

La Velocidad Límite

Es posible que muchos lectores conozcan el truculento mito de la moneda asesina. Si se dejara caer una moneda desde el Empire State Building de Nueva York, esta adquiriría velocidad suficiente como para incrustarse en el cerebro de un transeúnte y matarlo.

Por fortuna pata la gente que pasea, la física de la velocidad límite nos libra de fallecer de forma tan espantosa. La moneda alcanza su velocidad máxima, unos 80 km/h, a los 152 metr
os de caída. La velocidad de una bala es diez veces mayor. Es poco probable que la moneda mate a alguien, así que el mito es poco creíble. Además, las corrientes ascendentes ralentizan la caída y la forma de una moneda no se parece a la de una bala, de modo que lo más probable es que apenas atraviese la piel.

Cuando un objeto se desplaza por un medio, como el aire o el agua, se enfrenta a una fuerza de rozamiento que lo ralentiza. Para los objetos en caída libre en el aire esta fuerza depende del cuadrado de la velocidad, del área del objeto y de la densidad del aire. 

Cuanta más velocidad adquiere un objeto, mayor es la fuerza de resistencia. A medida que la moneda se acelera, la fuerza de rozamiento aumenta de tal modo que el objeto termina cayendo con una velocidad constante que conocemos como velocidad límite. Esto tiene lugar cuando la fuerza de rozamiento del medio con el objeto, debida a la viscosidad, iguala la fuerza de gravedad.

La velocidad límite de los paracaidistas se sitúa a unos 190 kilómetros por hora si extienden los brazos y las piernas. Si adoptan una posición aerodinámica, con la cabeza hacia abajo, alcanzan una velocidad aproximada de 240 kilómetros por hora.



La mayor velocidad límite alcanzada por un ser humano en caída libre la logró en 1960 el militar estadounidense Joseph Kittinger II: se calcula que llegó a los 988 kilómetros por hora gracias a la altitud (y, por lo tanto, a la menor densidad del aire) de su salto desde un globo. Su caída comenzó a 31,300 metros y abrió el paracaídas a los 5,500 metros.

Share:

miércoles, 6 de abril de 2016

La Energía Oscura

La energía oscura

 ““Hace cinco mil millones de años al universo le sucedió algo extraño como si Dios hubiese encendido una máquina anti gravedad, la expansión del cosmos se aceleró, y las galaxias empezaron a alejarse a una velocidad aún mayor”.
Escribió Dennis Overbye





Parece que la causa es la energía oscura, una forma energética que posiblemente impregna todo el espacio y que hace que la expansión cósmica se acelere. La abundancia de energía oscura la convierte en la responsable de ¾ partes de la masa-energía total del universo.




Según el astrofísico Neil deGrasse Tyson y el astrónomo Donald Goldsmith:
“Si los cosmólogos fuesen capaces de explicar de dónde procede la energía oscura, podrían afirmar que habían desvelado un secreto fundamental del universo”.

Las pruebas de la existencia de la energía oscura llegaron en 1998, en las observaciones astrofísicas de ciertos tipos de supernovas (estrellas en explosión) distantes se alejan de nosotros cada vez con mayor velocidad. Aquel mismo año, el cosmólogo Michael Turner ocurrió el término energía oscura.

Si la aceleración del universo persiste, las galaxias que no pertenecen a nuestro supe cúmulo de las galaxias que dejarán de ser visibles, porque su velocidad de alejamiento será mayor que la velocidad de la luz. Algunas teorías aseguran que la energía oscura podría exterminar el universo en un gran desgarramiento cósmico, cuando se destruya la materia en todas sus formas (sean átomos o planetas). Sin embargo, incluso este gran desgarramiento, el universo podría convertirse en un lugar solitario.

Según Tyson:
“Al final, la energía oscura socavará la capacidad de comprensión del universo de las generaciones futuras. A menos que los astrofísicos contemporáneos de toda la galaxia recopilen unos registros notables, los astrofísicos futuros no sabrían acerca de las galaxias externas. La energía oscura les negará el acceso a los capítulos enteros del libro del universo. En la actualidad también nosotros echamos de menos algunas piezas básicas de lo que algún día fue el universo, haciendo que tengamos que buscar a tientas respuestas que podríamos no hallar nunca”.



Share:

martes, 5 de abril de 2016

Dimensión de Hausdorff

La dimensión de Hausdorff


El matemático Félix Hausdorff (1868-1942) introdujo en 1918 la dimensión de Hausdorff que puede utilizarse para medir las dimensiones fraccionarias de los conjuntos fractales. En nuestra vida diaria, solemos pensar en las dimensiones topológicas enteras de objetos lisos. Por ejemplo, un plano presenta las dimensiones, debido a que un punto del plano puede describirse a través de dos parámetros independientes, por ejemplo, distancias medidas en un par de ejes x e y. Una línea recta tiene una sola dimensión.


En relación con algunos conjuntos y curvas más complicados, la dimensión de Hausdorff aporta otra forma de definir la dimensión. Imaginemos un línea que describa un patrón zigzagueante y se enrosque de una forma tan complicada que cubra de forma parcial el plano. Su dimensión de Hausdorff va más allá de 1 y adopta valores que se acercan cada vez más a 2 conforme la línea cubre más el plano.

Las curvas que llenan espacios como las curvas de Peano, infinitivamente complicadas, tienen una dimensión de Hausdorff de 2, las dimensiones de Hausdorff de las líneas costeras van desde 1,02 en la costa de Sudáfrica, hasta 1,25 en la costa occidental de Gran Bretaña. En realidad, una de las definiciones de fractal es “conjunto en relación con el cual la dimensión de Hausdorff supera la dimensión topológica”. La utilidad de las dimensiones fraccionarías para cuantificar la irregularidad, las puntas de crecimiento y la complejidad se ha demostrado en diversas áreas, como el arte, la biología y la geología.

Hausdorff, de origen judío, fue profesor de matemáticas en la Universidad de Bonn y uno de los fundadores de la topología moderna, célebre por su trabajo en el análisis funcional y la teoría de conjuntos. En 1942, a punto de ser enviado a un campo de concentración nazi, se suicidó junto a su mujer y a su cuñada. El día de antes, Hausdorff escribió a un amigo lo siguiente: “Perdónanos. Te deseamos a ti y a todos nuestros amigos mejores tiempos”. Muchos de los enfoques utilizados para calcular la dimensión de Hausdorff en relación con conjuntos complicados fue formulada por otro judío, el matemático ruso Abram Somoilovitch Besicovitch (1891 – 1970), por eso a veces se utiliza el término de la dimensión de Hausdorff-Besicovitch.    

Share:

jueves, 24 de marzo de 2016

Los Cuásares

Los Cuásares

“Los cuásares se encuentran, debido a su pequeño tamaño y su prodigiosa emisión de energía, entre los objetos más desconcertantes del universo”.
“Los cuásares no son mucho mayores que nuestro sistema solar, y sin embargo vierten una cantidad de luz entre 100 y 1000 veces mayor que toda una galaxia con sus cientos de miles de millones de estrellas”.
Describen los científicos de hubblesite.org

Aunque han sido un misterio durante décadas, en la actualidad casi todos los científicos creen que los cuásares son galaxias muy lejanas y energéticas en cuyo centro hay un agujero negro extremadamente masivo que vomita energía a medida que adsorbe espirales de material galáctico próximo.

Los primeros cuásares se descubrieron gracias a radiotelescopios (instrumentos que reciben ondas de radio espaciales); no había ningún objeto visible que se correspondiera con las señales. A comienzos de la década de 1960 se asociaron por fin algunos objetos visualmente difusos con estas extrañas fuentes que recibieron el nombre de fuentes de radio cuasiestelares (en inglés quasi-stellar radio sources, de ahí su nombre).

El espectro de estos objetos, que muestra las variaciones en la intensidad de su radiación en distintas longitudes de onda, resultó, en un principio, desconcertante. En 1963, sin embargo, el astrónomo estadounidense de origen holandés Maarten Schmidt hizo un descubrimiento increíble: las líneas espectrales eran, simplemente, las del hidrógeno, pero con un desplazamiento al rojo que las trasladaba hacia el final del espectro. Este desplazamiento al rojo, debido a la expansión del universo, implicaba que los cuásares formaban parte de galaxias extremadamente lejanas y antiguas.

En la actualidad se conocen más de 200,000 cuásares, que en su mayoría no presentabas emisiones de radio detectables. Aunque los cuásares parecen borrosos porque se encuentran a grandes distancias (entre 780 y 28,000 millones de años luz), en realidad son los objetos más luminosos y energéticos que conocemos.

Se calcula que pueden tragarse 10 estrellas cada año, o 600 planetas como el nuestro cada minuto, antes de apagarse cuando el gas y el polvo que los rodean se consumen. En ese momento la galaxia que alberga al cuásar se convierte en una galaxia normal. Es posible que los cuásares fueran muy comunes en los comienzos del universo, porque todavía no habían tenido tiempo de consumir toda la materia circundante.

Share:

miércoles, 23 de marzo de 2016

Aplicaciones de la Derivada Parte 2

Aplicaciones de la Derivada

Ángulo entre 2 curvas

Sea P(x0,y0) el punto de intersección entre las curvas f(x) y g(x), entonces el ángulo θ entre las curvas se obtiene con:
tan θ = [f’(x0) - g’(x0)] / [1 + f’(x0) g’(x0)]

Donde f’(x0) es la pendiente de la recta L2 y g’(x0) es la pendiente de la recta L1.

Curvatura

Radio de curvatura

En geometría plana la longitud de un segmento circular está dada por la fórmula: s=r(θ) à r= s/θ





En la figura se observa que “s” cambia cuando θ cambia.



En una curva cualquiera, al tomar un segmento muy pequeño formado por dos puntos de la curva y al relacionar la fórmula anterior se tiene que:

De la fórmula anterior se define:
∆r = ∆s / ∆θ
Luego, si la longitud ∆s es cada vez más pequeña, es decir, tiende a 0, el radio de curvatura se define con el siguiente límite:
r = lím∆sà0 [∆s / ∆θ] = ds/dθ à r = ds/dθ



En esta figura se tienen dos puntos, P y Q, de la curva, muy próximos entre sí, en cada punto se traza una recta tangente y su normal. Al punto de intersección entre las normales se llama Centro de Curvatura y a la distancia del centro a cualquiera de los puntos P y Q se llama radio de curvatura.

La expresión “1/r = dθ / ds” recibe el nombre de curvatura.


Para determinar la fórmula que permita calcular el radio de curvatura se tiene la siguiente figura.
En la función f(x) se tienen los puntos P y Q infinitamente muy próximos, de manera que la longitud del segmento circular ds sea igual a la longitud del segmento PQ; entonces, de la representación geométrica de la derivada se obtiene que:
dy/dx = tanθ à θ = arc tan (dy/dx)

Del triángulo PQR y el teorema de Pitágoras se obtiene:
ds = [(dx)2+(dy)2]1/2 = ( [1+ (dy/dx)2] (dx)2 )1/2 = ( [1+ (dy/dx)2] )1/2 dx
Luego:
ds = r (dθ) à r = ds / dθ
r = ds / dθ = ( [1+ (dy/dx)2] )1/2 dx / d[arc tan (dy/dx)] = [1 + (dy/dx)2] [1+ (dy/dx)2]1/2 / (d2y/dx2)

Solo derivamos el denominador porque tenemos “θ” y no “dθ” porque el diferencial indica que es una derivada, el numerador ya es directamente el diferencial de “s”.

Finalmente, la fórmula para determinar el radio de curvatura es:
r = [{1+ (y’)2}3]1/2 / (y’’)
ó
r = [{1+ (dy/dx)2}3]1/2 / (d2y/dx2)

Círculo de Curvatura

Es una curva dada en un punto de tangencia a la circunferencia, que tiene de centro el centro de la curvatura y de radio de curvatura y que pasa por un punto de tangencia, también se le conoce como circunferencia osculatriz o círculo osculador.





Centro de Curvatura

Para determinar la fórmula que permita calcular el cetntro de curvatura se tiene la siguiente figura.





Donde:
C(a,b) = Centro de Curvatura
Q(x,y) = Punto de la Curva
r = Radio de Curvatura





Se obtiene la ecuación de la recta normal de la recta tangente en el punto Q.
b - y = - (1/y) (a-x)
Se obtiene la ecuación de la circunferencia de centro en el punto C(a,b), radio “r” y que pasa por el punto Q(x,y).
(x - a)2 + (y - b)2 = r2
Al resolver el sistema de ecuaciones, se obtienen las coordenadas del centro de curvatura.
a = x – [ (dy/dx) (1 + {dy/dx}2) / (d2y/dx2) ], b = y + [ (1 + {dy/dx}2) / (d2y/dx2) ]
ó
a = x – [ (y’) (1 + {y’}2) / (y’’) ], b = y + [ (1 + {y’}2) / (y’’) ]

Radio de Curvatura en coordenadas paramétricas

Dadas las ecuaciones de una curva en coordenadas paramétricas
x = f(t), y = g(t)
El parámetro es cuando a la ecuación se le agrega valga la redundancia un parámetro “t” que puede representar tiempo normalmente en física.
Entonces, al derivar y sustituir en la fórmula del radio de curvatura en coordenadas rectangulares, se obtiene:
r = [{(dx/dt)2 + (dy/dt)2}1/2]3 / [(dx/dt)(d2y/dt2) – (dy/dt)(d2x/dt2)]
ó
r = [{(x’)2 + (y’)2}1/2]3 / [(x’)(y’’) – (y’)(x’’)]

Radio de Curvatura en Coordenadas Polares

Dada la curva con la ecuación de la forma:
ρ = f(θ)
Se tiene que:
x= ρcosθ, y = ρsenθ
Entonces, al derivar y sustituir en la fórmula del radio de curvatura en coordenadas rectangulares, se obtiene:
r = [{ρ + (dρ/dθ)2}1/2]3/[ρ2 + 2(dρ/dθ)2 – ρ(d2ρ/dθ2)]
ó
r = [{ρ + (ρ’)2}1/2]3/[ρ2 + 2(ρ’)2 – ρ(ρ’’)]
Share:

lunes, 21 de marzo de 2016

Aplicaciones de la Derivada Parte 1

Aplicaciones de la Derivada

Tangente: Es la recta que toca a la curva en un punto.
Normal: Recta perpendicular a la recta tangente en el punto donde toca a la curva.


AP1 = Longitud de la tangente
P1B = Longitud de la normal
AQ = Longitud de la subtangente
QB = Longitud de la subnormal




Longitud de la subtangente
En el Triángulo que forma AQP1 La “tanθ = P1Q/AQ”, pero “P1Q = y1” y “tanθ = m = dy/dx”, al despejar AQ se obtiene, “AQ=P1Q/tanθ”, por consiguiente:
AQ = (y1) / [dy/dx]
Longitud de la subnormal
En el triángulo BQP1 la “tanθ = (QB) / (QP1)”, pero “QP1 = y1” y “tanθ = m = (dy/dx)”, al despejar QB se obtiene, “QB = (P1Q) tanθ”, por consiguiente:
QB = y1 [dy/dx]
Longitud de la tangente
Es la distancia que existe entre el punto de tangencia y la intersección de la recta tangente en el eje X.
En el triángulo AQP1 por el teorema de Pitágoras:
(AP1)2 = (AQ)2 + (QP1)2
Pero, “AQ = (y1) / [dy/dx]” y “QP1 = y1”, por consiguiente:
(AP1)2 = [ (y1) / (dy/dx) ]2 + (y1)2 = [ (y1) / (dy/dx) ]2
AP1 = [ (y1) / (y’) ] (1 + [dy/dx]2)1/2
Longitud de la normal
Es la distancia que existe entre el punto de tangencia y la intersección de la recta normal con el eje X.
En el triángulo BQP1 por el teorema de Pitágoras:
(BP1)2 = (BQ)2 + (QP1)2
Pero “BQ = y1 [dy/dx]” y “QP1 = y1”, entonces:
(BP1)2 = ( y1 [dy/dx] )2 + (y1)2 = (y1)2 ( 1 + [dy/dx]2 )
Al despejar BP1, se obtiene “BP1 = ( 1 + [dy/dx]2 )1/2”, por consiguiente:
BP1 = y1 ( 1 + y’2 )1/2
Ecuación de la recta tangente
La ecuación de la recta tangente a una curva en el punto P1(x1,y1) con pendiente “m = dy/dx” está dada por:
y – y1 = [dy/dx] (x - x1)
Ecuación de la recta normal
La ecuación de la recta normal a una curva en el punto P1(x1,y1) con pendiente “m = - 1 / [dy/dx]” está determinada por:
y – y1 = - [1/(dy/dx)] (x - x1)


Recomendamos dar tiempo a interpretar cada despeje y relacionarlo con el gráfico.

Share:

Entrada destacada

La Aurora Boreal

La Aurora Boreal “La aurora boreal se había convertido en motivo de pánico” Escribió el meteorólogo Alfred Agno refiriéndose a la re...

Theme Support

Ivaan_Cejaa@hotmail.com Edgar_Corporation048@hotmail.com rgma1796@hotmail.com
Ciencia para Nosotros los Mortales. Con la tecnología de Blogger.