TEMAS DE FISICA


Este blog fue creado por alumnos del CBTis 160 de 6BMM de la Generación 2008 - 2011 de la especialidad Mantenimiento Automotriz en la materia Temas de Física impartida por el profesor Víctor Manuel García Jiménez.


CBTis 160:
Vicente Guerrero s/n esq. Benito Juárez colonia San Sebastián Xhala
Cuautitlán Izcalli Estado de México
58 72 31 48

martes, 7 de junio de 2011

Caos Fisica Nucleear

Teoría del caos es la denominación popular de la rama de las matemáticas, la física y otras ciencias que trata ciertos tipos de sistemas dinámicos muy sensibles a las variaciones en las condiciones iniciales. Pequeñas variaciones en dichas condiciones iniciales, pueden implicar grandes diferencias en el comportamiento futuro; complicando la predicción a largo plazo En fisica podria ser como la alteracion de un atomo produjo la explosion de Chernobil

En este video se muestra un ejemplo muy entendible de caos , como es que con un pequeño tropiezo se produce un gran cambio

ANALISIS DE MALLAS

Análisis de mallas






Nodo (circuitos)

En ingeniería eléctrica y electrónica, un nodo es cualquier punto donde dos o más elementos tienen una conexión común. y por el cual fluyen distintas corriente eléctricas, este punto es un empalme de conductores formados por alambres ideales (el cual, tiene resistencia 0).

Sin algún conocimiento previo, es fácil hallar un nodo usando la ley de Ohm: V = IR. Cuando miramos el esquema de un circuito, los cables ideales tienen una resistencia de cero (esto no pasa en la vida real, pero es una buena aproximación). Si se asume que no hay cambio de potencial en cualquier parte del cable, TODO el cable entre cualquier componente de un circuito es considerado parte del mismo nodo.

Tensión = Corriente * Resistencia Como la resistencia es 0, reemplazamos: Vab = Corriente * 0 = 0

Así que en cualquiera de los dos puntos del mismo cable, su tensión será 0. Además, el cable tendrá la misma tensión para los elementos conectados al nodo.

En muchos de los casos, la diferencia de potencial entre un punto en una pieza de metal (como el cable de cobre), y la tensión en otro punto de la misma pieza de metal es tan pequeña que muchas veces es considerada insignificante. Así que el metal puede ser considerado como parte del nodo.






Cada color en el circuito de arriba es un nodo

circuito con nodos A, B,C y D.


Figura 2: Circuito con corrientes de malla marcadas como i1, i2, y i3. Las flechas muestran la dirección de la corriente de malla.

Figura 1: Circuito plano con mallas esenciales 1, 2, y 3. R1, R2, R3, 1/sc, y Ls representan la impedancia de las resistencias, el condensador y el inductor. Vs e Is representan la tensión y la corriente de la fuente de tensión y de la fuente de corriente, respectivamente.
Análisis de mallas

El análisis de mallas (algunas veces llamada como método de corrientes de malla), es una técnica usada para determinar la tensión o la corriente de cualquier elemento de un circuito plano. Un circuito plano es aquel que se puede dibujar en un plano de forma que ninguna rama quede por debajo o por arriba de ninguna otra. Esta técnica está basada en la ley de tensiones de Kirchhoff. La ventaja de usar esta técnica es que crea un sistema de ecuaciones para resolver el circuito, minimizando en algunos casos el proceso para hallar una tensión o una corriente de un circuito.[1]

Para usar esta técnica se procede de la siguiente manera: se asigna a cada una de las mallas del circuito una corriente imaginaria que circula en el sentido que nosotros elijamos; se prefiere asignarle a todas la corrientes de malla el mismo sentido. De cada malla del circuito, se plantea una ecuación que estará en función de la corriente que circula por cada elemento. En un circuito de varias mallas resolveríamos un sistema lineal de ecuaciones para obtener las diferentes corrientes de malla.

La técnica de análisis de mallas funciona asignando arbitrariamente la corriente de una malla en una malla esencial. Una malla esencial es un lazo que no contiene a otro lazo. Cuando miramos un esquema de circuito, las mallas se ven como una ventana. En la figura uno las mallas esenciales son uno, dos y tres. Una vez halladas las mallas esenciales, las corrientes de malla deben ser especificadas.[2]

Una corriente de malla es una corriente que pasa alrededor de la malla esencial. La corriente de malla podría no tener un significado físico pero es muy usado para crear el sistema de ecuaciones del análisis de mallas.[1] Cuando se asignan corrientes de malla es importante tener todas las corrientes de malla girando en el mismo sentido. Esto ayudará a prevenir errores al escribir las ecuaciones. La convención es tenerlas todas girando a la manecillas del reloj.[2] En la figura 2 se muestra el mismo circuito antes pero con las corrientes de malla marcadas.

La razón para usar corrientes de malla en vez de usar LCK y LVK para resolver un problema es que las corrientes de malla pueden simplificar cualquier corriente planteada con LCK y LVK. El análisis de mallas asegura el menor número de ecuaciones, simplicando así el problema.
*

Después de nombrar las corrientes de malla, se plantea una ecuación para cada malla, en la cual se suma todas las tensiones de todos los componentes de una malla.[2] Para los elementos que no son fuentes de energía, la tensión será la impedancia del componente por la corriente que circula por él.[3] Cuando un componente se encuentra en una rama que pertenece a dos mallas, su corriente será resultado de la resta de las corrientes de malla a las que pertenezca. Es importante tener esto en cuenta a la hora de expresar la tensión en la rama en función de la intensidad que circula por ella. Por ejemplo, la tensión de la resistencia R2 en la figura 2 es: VR = R(i3 − i1), siendo i3 la corriente de malla de la que estamos escribiendo su ecuación e i1 la malla vecina; considerando positiva la corriente de la malla que estamos describiendo y negativa la corriente de malla vecina. Es importante tener en cuenta los signos.

Si hay una fuente de tensión en la corriente de malla, la tensión en la fuente es sumada o sustraída dependiendo si es una caída o subida de tensión en la dirección de la corriente de malla. Para una fuente de corriente que no esté contenida en dos mallas, la corriente de malla tomará el valor positivo o negativo de la fuente de corriente dependiendo si la corriente de malla está en la misma dirección o en dirección opuesta a la fuente de corriente.[2] A continuación se plantean las ecuaciones del circuito de la figura 3, así:



Una vez halladas las ecuaciones, el sistema puede resolverse usando alguna técnica que resuelva sistema de ecuaciones lineales.

SONIDO

HERNANDEZ GONZALEZ EDWIN SAID

SONIDO:
El sonido, en física, es cualquier fenómeno que involucre la propagación en forma de ondas elásticas (sean audibles o no), generalmente a través de un fluido (u otro medio elástico) que esté generando el movimiento vibratorio de un cuerpo.
El sonido humanamente audible consiste en ondas sonoras que producen oscilaciones de la presión del aire, que son convertidas en ondas mecánicas en el oído humano y percibidas por el cerebro. La propagación del sonido es similar en los fluidos, donde el sonido toma la forma de fluctuaciones de presión. En los cuerpos sólidos la propagación del sonido involucra variaciones del estado tensional del medio.
La propagación del sonido involucra transporte de energía sin transporte de materia, en forma de ondas mecánicas que se propagan a través de la materia sólida, líquida o gaseosa. Como las vibraciones se producen en la misma dirección en la que se propaga el sonido, se trata de una onda longitudinal.
El sonido es un fenómeno vibratorio transmitido en forma de ondas. Para que se genere un sonido es necesario que vibre alguna fuente. Las vibraciones pueden ser transmitidas a través de diversos medios elásticos, entre los más comunes se encuentran el aire y el agua. La fonética acústica concentra su interés especialmente en los sonidos del habla: cómo se generan, cómo se perciben, y cómo se pueden describir gráfica y/o cuantitativamente.

FISICA DEL SONIDO:
La física del sonido es estudiada por la acústica, que trata tanto de la propagación de las ondas sonoras en los diferentes tipos de medios continuos como la interacción de estas ondas sonoras con los cuerpos físicos.

PROPAGACIÓN DEL SONIDO
Ciertas características de los fluidos y de los sólidos influyen en la onda de sonido. Es por eso que el sonido se propaga en los sólidos y en los líquidos con mayor rapidez que en los gases. En general cuanto mayor sea la compresibilidad (1/K) del medio tanto menor es la velocidad del sonido. También la densidad es un factor importante en la velocidad de propagación, en general a mayor sea la densidad (ρ), a igualdad de todo lo demás, tanto menor es la velocidad de la propagación del sonido. La velocidad del sonido se relaciona con esas magnitudes mediante:
En los gases, la temperatura influye tanto la compresibilidad como la densidad, de tal manera que el factor de importancia suele ser la temperatura misma.
Para que el sonido se transmita se necesita que las moléculas vibren en torno a sus posiciones de equilibrio.
En algunas zonas de las moléculas de aire, al vibrar se juntan (zonas de compresión) y en otras zonas se alejan (zonas de rarefacción), esta alteración de las moléculas de aire es lo que produce el sonido.
Las ondas sonoras necesitan un medio en el que propagarse, por lo que son ondas mecánicas. Se propagan en la misma dirección en la que tienen lugar las compresiones y dilataciones del medio: son ondas longitudinales.
La velocidad de propagación de las ondas sonoras depende de la distancia entre las partículas del medio; por tanto, es en general mayor en los sólidos que en los líquidos y en estos, a su vez, que en los gases.

MAGNITUDES FÍSICAS DEL SONIDO
Como todo movimiento ondulatorio, el sonido puede representarse como una suma de curvas sinusoides con un factor de amplitud, que se pueden caracterizar por las mismas magnitudes y unidades de medida que a cualquier onda de frecuencia bien definida: Longitud de onda (λ), frecuencia (f) o inversa del período (T), amplitud (que indica la cantidad de energía que contiene una señal sonora) y no hay que confundir amplitud con volumen o potencia acústica. Y finalmente cuando se considera la superposición de diferentes ondas es importante la fase que representa el retardo relativo en la posición de una onda con respecto a otra.
Sin embargo, un sonido complejo cualquiera no está caracterizado por los parámetros anteriores, ya que en general un sonido cualquiera es una combinación de ondas sonoras que difieren en los cinco parámetros anteriores. La caracterización de un sonido arbitrariamente complejo implica analizar tanto la energía transmitida como la distribución de dicha energía entre las diversas ondas componentes, para ello resulta útil investigado.
Potencia acústica: El nivel de potencia acústica es la cantidad de energía radiada en forma de ondas por unidad de tiempo por una fuente determinada. La potencia acústica depende de la amplitud.
Espectro de frecuencias: permite conocer en qué frecuencias se transmite la mayor parte de la energía.

VELOCIDAD DEL SONIDO
El sonido tiene una velocidad de 331,5 m/s cuando: la temperatura es de 0 °C, la presión atmosférica es de 1 atm (nivel del mar) y se presenta una humedad relativa del aire de 0 % (aire seco). Aunque depende muy poco de la presión del aire.
La velocidad del sonido depende del tipo de material. Cuando el sonido se desplaza en los sólidos tiene mayor velocidad que en los líquidos, y en los líquidos es más veloz que en los gases. Esto se debe a que las partículas en los sólidos están más cercanas.

REVERBERACIÓN
La reverberación es la suma total de las reflexiones del sonido que llegan al lugar del oyente en diferentes momentos del tiempo. Auditivamente se caracteriza por una prolongación, a modo de "cola sonora", que se añade al sonido original. La duración y la coloración tímbrica de esta cola dependen de: La distancia entre el oyente y la fuente sonora; la naturaleza de las superficies que reflejan el sonido. En situaciones naturales hablamos de sonido directo para referirnos al sonido que se transmite directamente desde la fuente sonora hasta nosotros (o hasta el mecanismo de captación que tengamos). Por otra parte, el sonido reflejado es el que percibimos después de que haya rebotado en las superficies que delimitan el recinto acústico, o en los objetos que se encuentren en su trayectoria. Evidentemente, la trayectoria del sonido reflejado siempre será más larga que la del sonido directo, de manera que -temporalmente- escuchamos primero el sonido directo, y unos instantes más tarde escucharemos las primeras reflexiones; a medida que transcurre el tiempo las reflexiones que nos llegan son cada vez de menor intensidad, hasta que desparecen. Nuestra sensación, no obstante, no es la de escuchar sonidos separados, ya que el cerebro los integra en un único precepto, siempre que las reflexiones lleguen con una separación menor de unos 50 milisegundos. Esto es lo que se denomina efecto Haas o efecto de precedencia.

FISIOLOGIA DEL SONIDO:
Los sonidos son percibidos a través del aparato auditivo que recibe las ondas sonoras, que son convertidas en movimientos de los osteocillos óticos y percibidas en el oído interno que a su vez las transmite mediante el sistema nervioso al cerebro. Esta habilidad se tiene incluso antes de nacer.

LA VOZ HUMANA
La espectrografía de la voz humana revela su rico contenido armónico. La voz humana se produce por la vibración de las cuerdas vocales, lo cual genera una onda sonora que es combinación de varias frecuencias y sus correspondientes armónicos. La cavidad buco-nasal sirve para crear ondas cuasi estacionarias por lo que ciertas frecuencias denominadas formantes. Cada segmento de sonido del habla viene caracterizado por un cierto espectro de frecuencias o distribución de la energía sonora en las diferentes frecuencias. El oído humano es capaz de identificar diferentes formantes de dicho sonido y percibir cada sonido con formantes diferentes como cualitativamente diferentes, eso es lo que permite por ejemplo distinguir dos vocales. Típicamente el primer formante, el de frecuencia más baja está relacionada con la abertura de la vocal que en última instancia está relacionada con la frecuencia de las ondas estacionarias que vibran verticalmente en la cavidad. El segundo formante está relacionado con la vibración en la dirección horizontal y está relacionado con si la vocal es anterior, central o posterior.
La voz masculina tiene un tono fundamental de entre 100 y 200 Hz, mientras que la voz femenina es más aguda, típicamente está entre 150 y 300 Hz. Las voces infantiles son aún más agudas. Sin el filtrado por resonancia que produce la cavidad buco nasal nuestras emisiones sonoras no tendrían la claridad necesaria para ser audibles. Ese proceso de filtrado es precisamente lo que permite generar los diversos formantes de cada unidad segmental del habla.

SONIDOS DEL HABLA
Las lenguas humanas usan segmentos homogéneos reconocibles de unas decenas de milisegundos de duración, que componen los sonidos del habla, técnicamente llamados fonos. Lingüísticamente no todas las diferencias acústicas son relevantes, por ejemplo las mujeres y los niños tienen en general tonos más agudos, por lo que todos los sonidos que producen tienen en promedio una frecuencia fundamental y unos armónicos más altos e intensos.
Los hablantes competentes de una lengua aprenden a "clasificar" diferentes sonidos cualitativamente similares en clases de equivalencia de rasgos relevantes. Esas clases de equivalencia reconocidas por los hablantes son los constructos mentales que llamamos fonemas. La mayoría de lenguas naturales tiene unas pocas decenas de fonemas distintivos, a pesar de que las variaciones acústicas de los fonos y sonidos son enormes.

RESONANCIA ARTÍCULO
Es el fenómeno que se produce cuando los cuerpos vibran con la misma frecuencia, uno de los cuales se puso a vibrar al recibir las frecuencias del otro. Para entender el fenómeno de la resonancia existe un ejemplo muy sencillo, Supóngase que se tiene un tubo con agua y muy cerca de él (sin éstos en contacto) tenemos un diapasón, si golpeamos el diapasón con un metal, mientras echan agua en el tubo, cuando el agua alcance determinada altura el sonido será más fuerte; esto se debe a que la columna de agua contenida en el tubo se pone a vibrar con la misma frecuencia que la que tiene el diapasón, lo que evidencia por qué las frecuencias se refuerzan y en consecuencia aumenta la intensidad del sonido. Un ejemplo es el efecto de afinar las cuerdas de la guitarra, puesto que al afinar, lo que se hace es igualar las frecuencias, es decir poner en resonancia el sonido de las cuerdas.

SONIDO DE LA MUSICA
El sonido, en combinación con el silencio, es la materia prima de la música. En música los sonidos se califican en categorías como: largos y cortos, fuertes y débiles, agudos y graves, agradables y desagradables. El sonido ha estado siempre presente en la vida cotidiana del hombre. A lo largo de la historia el ser humano ha inventado una serie de reglas para ordenarlo hasta construir algún tipo de lenguaje musical.

PROPIEDADES
Las cuatro cualidades básicas del sonido son la altura, la duración, el timbre o color y la intensidad, fuerza o potencia.

LA ALTURA
Indica si el sonido es grave, agudo o medio, y viene determinada por la frecuencia fundamental de las ondas sonoras, medida en ciclos por segundo o hercios (Hz).

VIBRACIÓN LENTA = baja frecuencia = sonido grave.
VIBRACIÓN RÁPIDA = alta frecuencia = sonido agudo.

Para que los humanos podamos percibir un sonido, éste debe estar comprendido entre el rango de audición de 16 y 20.000 Hz. Por debajo de este rango tenemos los infrasonidos y por encima los ultrasonidos. A esto se le denomina rango de frecuencia audible. Cuanta más edad se tiene, este rango va reduciéndose tanto en graves como en agudos.

LA INTENSIDAD
Es la cantidad de energía acústica que contiene un sonido, es decir, lo fuerte o suave de un sonido. La intensidad viene determinada por la potencia, que a su vez está determinada por la amplitud y nos permite distinguir si el sonido es fuerte o débil.
Los sonidos que percibimos deben superar el umbral auditivo (0 dB) y no llegar al umbral de dolor (140 dB). Esta cualidad la medimos con el sonómetro y los resultados se expresan en decibelios (dB) en honor al científico e inventor Alexander Graham Bell.

EL TIMBRE
Es la cualidad que confiere al sonido los armónicos que acompañan a la frecuencia fundamental. La voz propia de cada instrumento que distingue entre los sonidos y los ruidos.
Esta cualidad es la que permite distinguir dos sonidos, por ejemplo, entre la misma nota (tono) con igual intensidad producida por dos instrumentos musicales distintos. Se define como la calidad del sonido. Cada cuerpo sonoro vibra de una forma distinta. Las diferencias se dan no solamente por la naturaleza del cuerpo sonoro (madera, metal, piel tensada, etc.), sino también por la manera de hacerlo sonar (golpear, frotar, rascar).
Una misma nota suena distinta si la toca una flauta, un violín, una trompeta, etc. Cada instrumento tiene un timbre que lo identifica o lo diferencia de los demás. Con la voz sucede lo mismo. El sonido dado por un hombre, una mujer, un/a niño/a tienen distinto timbre. El timbre nos permitirá distinguir si la voz es áspera, dulce, ronca o aterciopelada. También influye en la variación del timbre la calidad del material que se utilice. Así pues, el sonido será claro, sordo, agradable o molesto.

LA DURACIÓN
Es el tiempo durante el cual se mantiene un sonido. Podemos escuchar sonidos largos, cortos, muy cortos, etc.
Los únicos instrumentos acústicos que pueden mantener los sonidos el tiempo que quieran, son los de cuerda con arco, como el violín, y los de viento (utilizando la respiración circular o continua); pero por lo general, los instrumentos de viento dependen de la capacidad pulmonar, y los de cuerda según el cambio del arco producido por el ejecutante.

FUENTES DE SONIDO
El sonido es un tipo de ondas mecánicas longitudinales producidas por variaciones de presión del medio. Estas variaciones de presión (captadas por el oído humano) producen en el cerebro la percepción del sonido.
Existen en la naturaleza sonidos generados por diferentes fuentes de sonido y sus características de frecuencia (altura), intensidad (fuerza), forma de la onda (timbre) y envolvente (modulación) los hacen diferentes e inconfundibles, por ejemplo, el suave correr del agua por un grifo tiene las mismas características en frecuencia, timbre y envolvente que el ensordecedor correr del agua en las cataratas del Iguazú, con sus aproximadamente 100 metros de altura de caída libre, pero la intensidad (siempre medida en decibelios a un metro de distancia de la zona de choque) es mucho mayor.
De los requisitos apuntados, el de la envolvente es el más significativo, puesto que es "la variación de la intensidad durante un tiempo, generalmente el inicial, considerado", el ejemplo de la diferencia de envolventes es la clara percepción que tenemos cuando algún instrumento de cuerda raspada (violín, violoncelo) son ejecutados "normalmente" (con el arco raspando las cuerdas" o cuando son pulsados (pizzicato); mientras que en el primer caso el sonido tiene aproximadamente la misma intensidad durante toda su ejecución, en el segundo caso el sonido parte con una intensidad máxima (la cuerda tensa soltada por el músico) atenuándose rápidamente con el transcurso del tiempo y de una manera exponencial, de manera que la oscilación siguiente a la anterior sigue una ley de variación descendente. Entre los instrumentos que exhiben una envolvente constante tenemos primordialmente el órgano de tubos (y sus copias electrónicas), el saxofón (también de aire, como el órgano) y aquellos instrumentos que, no siendo de envolvente fija, pueden fácilmente controlar esta función, como la flauta (dulce y armónica), la tuba, el clarinete y las trompetas, pífano y silbatos, bocinas de medios de transportes (instrumentos de advertencia); entre los instrumentos de declinación exponencial tenemos todos los de percusión que forman las "baterías": bombos, platillos, redoblantes, tumbadoras (en este ramo debemos destacar los platillos, con un tiempo largo de declinación que puede ser cortado violentamente por el músico) mediante un pedal.

procesos adiabaticos

Introduccion:

En termodinámica se designa como proceso adiabático a aquél en el cual el sistema (generalmente, un fluido que realiza un trabajo) no intercambia calor con su entorno. Un proceso adiabático que es además reversible se conoce como proceso isentrópico. El extremo opuesto, en el que tiene lugar la máxima transferencia de calor, causando que la temperatura permanezca constante, se denomina como proceso isotérmico.


Objetivo:

El objetivo de esta propuesta es el estudio experimental de distintos procesos
termodínamicos simples para un gas ideal (aire). En particular se estudiarán procesos
adiabáticos, isotermos e isocóricos.

Procesos Adiabáticos:



Gráfico de un proceso adiabático en función de p y V.
En termodinámica se designa como proceso adiabático a aquél en el cual el sistema (generalmente, un fluido que realiza un trabajo) no intercambia calor con su entorno. Un proceso adiabático que es además reversible se conoce como proceso isentrópico. El extremo opuesto, en el que tiene lugar la máxima transferencia de calor, causando que la temperatura permanezca constante, se denomina como proceso isotérmico.
El término adiabático hace referencia a elementos que impiden la transferencia de calor con el entorno. Una pared aislada se aproxima bastante a un límite adiabático. Otro ejemplo es la temperatura adiabática de llama, que es la temperatura que podría alcanzar una llama si no hubiera pérdida de calor hacia el entorno. En climatización los procesos de humectación (aporte de vapor de agua) son adiabáticos, puesto que no hay transferencia de calor, a pesar que se consiga variar la temperatura del aire y su humedad relativa.
El calentamiento y enfriamiento adiabático son procesos que comúnmente ocurren debido al cambio en la presión de un gas. Esto puede ser cuantificado usando la ley de los gases ideales.

Enfriamiento adiabático del aire
Existen, tres relaciones en el enfriamiento adiabático del aire:
1. La relación ambiente de la atmósfera, que es la proporción a la que el aire se enfría a medida que se gana altitud.
2. La tasa seca adiabática, es de unos -1° por cada 100 metros de subida.
3. La tasa húmeda adiabática, es de unos -0,6° - 0,3º por cada 100 metros de subida.
La primera relación se usa para describir la temperatura del aire circundante a través del cual está pasando el aire ascendente. La segunda y tercera proporción son las referencias para una masa de aire que está ascendiendo en la atmósfera. La tasa seca adiabática se aplica a aire que está por debajo del punto de rocío, por ejemplo si no está saturado de vapor de agua, mientras que la tasa húmeda adiabática se aplica a aire que ha alcanzado su punto de rocío. El enfriamiento adiabático es una causa común de la formación de nubes.
El enfriamiento adiabático no tiene por qué involucrar a un fluido. Una técnica usada para alcanzar muy bajas temperaturas (milésimas o millonésimas de grado sobre el cero absoluto) es la desmagnetización adiabática, donde el cambio en un campo magnético en un material magnético es usado para conseguir un enfriamiento adiabático.

Representación gráfica de las curvas adiabáticas
Las propiedades de las curvas adiabáticas en un diagrama P-V son las siguientes:
1. Cada adiabática se aproxima asintóticamente a ambos ejes del diagrama P-V (al igual que las isotermas).
2. Cada adiabática interseca cada isoterma exactamente una sola vez.
3. Una curva adiabática se parece a una isoterma, excepto que durante una expansión, una adiabática pierde más presión que una isoterma, por lo que inclinación es mayor (es más vertical).
4. Si las isotermas son cóncavas hacia la dirección "noreste" (45°), entonces las adiabáticas son cóncavas hacia la dirección "este noreste" (31°).
5. Si adiabáticas e isotermas se dibujan separadamente con cambios regulares en la entropía y temperatura, entonces a medida que nos alejamos de los ejes (en dirección noreste), parece que la densidad de las isotermas permanece constante, pero la densidad de las adiabáticas disminuye. La excepción se encuentra muy cerca del cero absoluto, donde la densidad de las adiabáticas cae fuertemente y se hacen muy raras.

El siguiente esquema representa un diagrama P-V con una superposición de adiabáticas e isotermas.
Las isotermas son las curvas rojas y las adiabáticas son las curvas negras. Las adiabáticas son isentrópicas. El volumen está representado en el eje de abcisas y la presión en el eje de ordenadas.

Termodinámica
Energía calorífica: La suma de la energía potencial y de la energía sintética de un sistema no permanece siempre constante.
De una manera general, la energía mecánica total de un sistema disminuye con el frotamiento y los choques. Si por ejemplo, se frena un cuerpo durante su caída por un plano inclinado, de forma que su velocidad permanezca constante, se producirá una disminución de su energía potencial sin que aumente su energía cinética. Pero, en todos los fenómenos de esta naturaleza se produce calor. Así el fósforo de las cerillas se inflama por frotamiento, las herramientas se calientan al labrar los metales, etc. Sí una bala de plomo se dispara contra una placa de acero, se puede alcanzar, en el momento del choque, una temperatura superior a su punto de fusión. El calor debe, por consiguiente, considerarse como una forma de energía, hipótesis que se ve corroborada por la posibilidad de producir trabajo mecánico consumiendo calor, por ejemplo, en las maquinas de calor.
Otras formas de energía: eléctrica. La corriente eléctrica es uno de los numerosos fenómenos que pueden producir trabajo mecánico o calor. La primera transformación se realiza en los motores y la inversa de los generadores electromagnéticos de corriente (dínamos, alternadores). En todos los conductores por los que pasan una corriente hay una producción de calor, conocida con el nombre de efecto de joule; la transformación contraria directa, es decir de calor en electricidad, se observa en las pilas termoeléctricas y basta calentar una de las dos soldaduras de dos metales diferentes que forman parte de un circuito para que se engendre en el mismo una corriente. De ellos se deduce que existe energía eléctrica y que el paso de una corriente es en realidad un transporte de energía a lo largo de un circuito.
Un condensador cargado de corriente también energía eléctrica, puesto a descargarse es capaz de producir una corriente, pero esta energía es potencial.
Química: Las reacciones químicas tienen lugar con absorción o desprendimiento de calor, según los casos. La combustión, que es la combinación del oxígeno del cuerpo combustible o con los elementos que lo integran, revelan que una muestra de carbón y oxigeno contiene energía química potencial, que puede utlizarse al iniciar la combustión o la combinación de ambos cuerpos.

FISICA NUCLEAR

En física nuclear , la fusión nuclear es el proceso por el cual varios núcleos atómicos de carga similar se unen para formar un núcleo más pesado. Se acompaña de la liberación o absorción de una cantidad enorme de energía, que permite a la materia entrar en un estado plasmático.

La fusión de dos núcleos de menor masa que el hierro (que, junto con el níquel, tiene la mayor energía de enlace por nucleón) libera energía en general, mientras que la fusión de núcleos más pesados que el hierro absorbe energía; y viceversa para el proceso inverso, fisión nuclear. En el caso más simple de fusión del hidrógeno, dos protones deben acercarse lo suficiente para que la interacción nuclear fuerte pueda superar su repulsión eléctrica mutua y obtener la posterior liberación de energía.

La fusión nuclear se produce de forma natural en las estrellas. La fusión artificial también se ha logrado en varias empresas, aunque todavía no ha sido totalmente controlada. Sobre la base de los experimentos de transmutación nuclear de Ernest Rutherford conducidos unos pocos años antes, la fusión de núcleos ligeros (isótopos de hidrógeno) fue observada por primera vez por Mark Oliphant en 1932; los pasos del ciclo principal de la fusión nuclear en las estrellas posteriormente fueron elaborados por Hans Bethe durante el resto de esa década. La investigación sobre la fusión para fines militares se inició en la década de 1940 como parte del Proyecto Manhattan, pero no tuvo éxito hasta 1952. La investigación sobre la fusión controlada con fines civiles se inició en la década de 1950, y continúa hasta hoy en día.

Descripción general
Antes de que la fusión pueda tener lugar, debe superarse una importante barrera de energía producida por la fuerza electrostática. A grandes distancias dos núcleos se repelen entre sí debido a la fuerza de repulsión electrostática entre sus protones cargados positivamente. Si dos núcleos pueden ser acercados lo suficiente, sin embargo, la repulsión electrostática se puede superar debido a la interacción nuclear fuerte, que es más fuerte en distancias cortas.

Cuando se añade un nucleón como un protón o un neutrón a un núcleo, la fuerza nuclear atrae a otros nucleones, pero principalmente a sus vecinos inmediatos, debido al corto alcance de esta fuerza. Los nucleones en el interior de un núcleo tienen más vecinos nucleones que los de la superficie. Ya que los núcleos más pequeños tienen una mayor relación entre área de superficie y volumen, la energía de enlace por nucleón debido a la fuerza nuclear por lo general aumenta con el tamaño del núcleo, pero se aproxima a un valor límite correspondiente a la de un núcleo con un diámetro de cerca de cuatro nucleones.

La fuerza electrostática, por otra parte, es una fuerza inversa del cuadrado de la distancia, así que un protón añadido a un núcleo sentirá una repulsión electrostática de todos los otros protones en el núcleo. La energía electrostática por nucleón, debido a la fuerza electrostática por tanto, aumenta sin límite cuando los núcleos se hacen más grandes.


En distancias cortas, la interacción nuclear fuerte (atracción) es más fuerte que la fuerza electrostática (repulsión). Así, la mayor dificultad técnica para la fusión es conseguir que los núcleos se acerquen lo suficiente para fusionar. Las distancias no están a escala..El resultado neto de estas fuerzas opuestas es que la energía de enlace por nucleón generalmente aumenta con el tamaño del núcleo, hasta llegar a los elementos hierro y níquel, y un posterior descenso para los núcleos más pesados. Finalmente, la energía de enlace se convierte en negativa y los núcleos más pesados (con más de 208 nucleones, correspondientes a un diámetro de alrededor de 6 nucleones) no son estables. Los cuatro núcleos más estrechamente unidos, en orden decreciente de energía de enlace, son 62Ni, 58Fe, 56Fe, y 60Ni.[1] A pesar de que el isótopo de níquel, 62Ni, es más estable, el isótopo de hierro 56Fe es una orden de magnitud más común. Esto se debe a una mayor tasa de desintegración de 62Ni en el interior de las estrellas impulsado por la absorción de fotones.

Una notable excepción a esta tendencia general es el núcleo helio-4, cuya energía de enlace es mayor que la del litio, el siguiente elemento más pesado. El principio de exclusión de Pauli proporciona una explicación para este comportamiento excepcional, que dice que debido a que los protones y los neutrones son fermiones, no pueden existir en el mismo estado. Helio-4 tiene una energía de enlace anormalmente grande debido a que su núcleo está formado por dos protones y dos neutrones, de modo que sus cuatro nucleones puede estar en el estado fundamental. Cualquier nucleón adicionales tendrían que ir en estados de energía superiores.

Confinamiento electrostático estable para fusión nuclear
Como se puede apreciar en el dibujo de arriba se basa en el encierro total de iones de hidrógeno confinados electrostáticamente.

Los beneficios de este confinamiento son múltiples:

El grosor de la esfera de cobre anula la inestabilidad producida por los errores de simetría.
La ionización del hidrógeno se produce fácilmente por el campo eléctrico que absorbe los electrones sin disminuir la intensidad del campo eléctrico.
Se puede obtener un intenso campo eléctrico lo que evitaría que los iones de hidrógeno escapen.
La energía consumida es menor que la que consume un reactor de fusión que produce un campo electromagnético para confinar los iones.
La fusión nuclear se logra por medio de compresión-descompresión aumentando o disminuyendo la intensidad del campo eléctrico, esto se logra aumentando o disminuyendo la velocidad del generador de electricidad. El moderador de neutrones que se puede utilizar es el plomo aunque habría que probar su eficacia.

FISICA NUCLEAR

La física nuclear es una rama de la física que estudia las propiedades y el comportamiento de los núcleos atómicos. La física nuclear es conocida mayoritariamente por la sociedad por el aprovechamiento de la energía nuclear en centrales nucleares y en el desarrollo de armas nucleares, tanto de fisión como de fusión nuclear. En un contexto más amplio, se define la física nuclear y de partículas como la rama de la física que estudia la estructura fundamental de la materia y las interacciones entre las partículas subatómicas.

PRIMEROS EXPERIMENTOS
La radiactividad fue descubierta en las sales de uranio por el físico francés Henri Becquerel en 1896.
En 1898, los científicos Marie y Pierre Curie descubrieron dos elementos radiactivos existentes en la naturaleza, el polonio (84Po) y el radio (88Ra).
En 1913 Niels Bohr publica su modelo de átomo, consistente en un núcleo central compuesto por partículas que concentran la práctica mayoría de la masa del átomo (neutrones y protones), rodeado por varias capas de partículas cargadas casi sin masa (electrones). Mientras que el tamaño del átomo resulta ser del orden del angstrom (10-10 m), el núcleo puede medirse en fermis (10-15 m), o sea, el núcleo es 100.000 veces menor que el átomo.
Ernest Rutherfordio en el año 1918 definió la existencia de los núcleos de hidrógeno. Rutherfordio sugirió que el núcleo de hidrógeno, cuyo número atómico se sabía que era 1, debía ser una partícula fundamental. Se adoptó para esta nueva partícula el nombre de protón sugerido en 1886 por Goldstein para definir ciertas partículas que aparecían en los tubos catódicos.
Durante la década de 1930, Irène y Jean Frédéric Joliot-Curie obtuvieron los primeros nucleidos radiactivos artificiales bombardeando boro (5B) y aluminio (13Al) con partículas α para formar isótopos radiactivos de nitrógeno (7N) y fósforo (15P). Algunos isótopos de estos elementos presentes en la naturaleza son estables. Los isótopos inestables se encuentran en proporciones muy bajas.
REACCIONES NUCLEARES
La física nuclear incluye también el estudio de las reacciones nucleares: el uso de proyectiles nucleares para convertir un tipo de núcleo en otro. Si, por ejemplo, se bombardea el sodio con neutrones, parte de los núcleos estables Na capturan estos neutrones para formar núcleos radiactivos ²Na:
[pic] Estas reacciones se estudian colocando muestras dentro de los reactores nucleares para producir un flujo alto de neutrones (número elevado de neutrones por unidad de área).
RADIOCTIVIDAD NATURAL
Se denomina radiactividad natural a aquella radiactividad que existe en la naturaleza sin que haya existido intervención humana. Su descubridor fue Henri Becquerel en 1896.
Puede provenir de dos fuentes:
1. Materiales radiactivos existentes en la Tierra desde su formación, los llamados primigenios.
2. Materiales radiactivos generados por la interacción de los rayos cósmicos con los materiales de la Tierra que originalmente no eran radiactivos, los llamados cosmogónicos.
Junto a los rayos cósmicos, que provienen del exterior de la atmósfera, las radiaciones emitidas por estos materiales son las responsables del 80% de la dosis recibida por las personas en el mundo (en promedio). El resto está provocado casi integramente por las prácticas médicas que utilizan las radiaciones (diagnóstico por rayos X, TAC, etc.)
La dosis media soportada por un ser humano viene a ser de 2.4 mSv. De todas las radiaciones ionizantes naturales (donde se incluyen los rayos cósmicos), es el 222Rn el que produce aproximadamente la mitad de la dosis que reciben las personas.
En 1896 Becquerel descubrió que ciertas sales de uranio emitían radiaciones espontáneamente, al observar que velaban las placas fotográficas envueltas en papel negro.
Hizo ensayos con el mineral en caliente, en frío, pulverizado, disuelto en ácidos y la intensidad de la misteriosa radiación era siempre la misma. Por tanto, esta nueva propiedad de la materia, que recibió el nombre de radiactividad, no dependía de la forma física o química en la que se encontraban los átomos del cuerpo radiactivo, sino que era una propiedad que radicaba en el interior mismo del átomo.
El estudio del nuevo fenómeno y su desarrollo posterior se debe casi exclusivamente a los esposos Curie, quienes encontraron otras sustancias radiactivas como el torio, polonio y radio. La intensidad de la radiación emitida era proporcional a la cantidad de uranio presente, por lo que dedujo Marie Curie que la radiactividad era una propiedad atómica.
Marie y Pierre Curie al proseguir los estudios encontraron fuentes de radiación natural bastante más poderosas que el Uranio original, entre estos el Polonio y el Radio.
La radiactividad del elemento no dependía de la naturaleza física o química de los átomos que lo componen, sino que era una propiedad radicada en el interior mismo del átomo.
Hoy en día se conocen más de 40 elementos radiactivos naturales, que corresponden a los elementos más pesados. Por arriba del número atómico 83, todos los núcleos.
El fenómeno de la radiactividad se origina exclusivamente en el núcleo de los átomos radiactivos. Y la causa que lo origina se cree que es debida a la interacción neutrón-protón del mismo.
Al estudiar la radiación emitida por el radio se comprobó que era compleja, pues al aplicarle un campo magnético parte de ella se desviaba de su trayectoria y otra parte no.
Sabemos que la radiación emitida por una desintegración puede ser de tres tipos: alfa, beta y gamma; además también hay que considerar hoy la emisión de neutrones:

REACCIONES NUCLEARES ASPECTOS DE SALUD Y SEGURIDAD.
Los modelos utilizados por la industria nuclear, para estimar el impacto de las radiaciones en el cuerpo humano, parten de un cierto nivel de daño permitido. El uso del término "nivel de seguridad" por la industria nuclear, no supone niveles de exposición inocuos para la salud, sino niveles en los cuales inversiones de prevención exceden a los gastos de curación. Es más: recientes estudios sobre poblaciones "sobrevivientes a la bomba" muestran, que la exposición a ciertas radiaciones puede ser mucho más peligrosa de lo presentado en dichos modelos oficiales.
Con frecuencia se intenta minimizar el impacto de la radioactividad artificial, comparándola con el nivel de radiación ambiental natural. El comportamiento químico y biológico de los radio isótopos artificiales provoca su concentración en la cadena alimenticia, o en ciertos órganos, en mayor grado que los naturales. Los organismos vivientes nunca tuvieron que evolucionar para soportar tales substancias. Por tanto, su presencia supone un riesgo mucho mayor de lo que muestra una comparación simplista de su radioactividad.
En relación a la contaminación nuclear, no se puede recalcar suficientemente que lo que cuenta, biológicamente, es la suma a través del tiempo de todos los daños de todas las fuentes y eventos combinados que liberan venenos persistentes (radioactivos u otros) a la biosfera... Cada aporte a esta suma importa.
Como parte de su operación normal, la producción nuclear libera radioactividad venenosa en el aire, tierra y agua. Las sustancias radioactivas emiten partículas alfa y beta y rayos gamma, los que pueden dañar a las células vivas. Una alta dosis de radiación puede conducir a la muerte en cuestión de días o semanas, y se sabe ahora que las dosis bajas de radiación son mucho más dañinas para la salud de lo que se pensaba anteriormente. La exposición prolongada a la llamada radiación de bajo nivel puede causar problemas graves y perdurables a la salud humana, tanto para las personas expuestas como para su descendencia.
A pesar de algunas informaciones de la industria nuclear, nunca ha sido científicamente demostrada la inocuidad de ninguna dosis radiactiva, por baja que sea. En otros términos: No existe un nivel de exposición radiactiva que pueda considerarse seguro. Como ejemplo, la radiación natural de fondo de zonas de roca granítica, que suele ser superior a la normal, se supone causante del incremento de ciertas enfermedades. No es difícil deducir que cualquier incremento a esta radiación natural inevitable no puede producir más que riesgos añadidos. Cuando la industria nuclear afirma que escapes nucleares no afectan a la salud, está simplemente, saltando a la verdad.
Los trabajadores de la industria nuclear, sus hijos y los vecinos de las instalaciones nucleares en todo el mundo sufren tasas mucho mayores que la población en general de cáncer, defectos congénitos y disfunciones del sistema inmunológico. Nuevos estudios que han investigado las causas de un aumento global del cáncer de mamas en las mujeres muestran que el tejido de las mamas es particularmente propenso a desarrollar cáncer a causa de la exposición a la radiación. Esta también está reconocida como causante del cáncer a la próstata y al pulmón.
Lo trágico es que el daño genético que ocasiona la radiación puede pasar de una generación a otra, afectando potencialmente a la descendencia de todas las especies.
Los tipos de contaminación que producen las centrales son dos: radiactividad y contaminación térmica.
• La contaminación térmica es común a las centrales térmicas convencionales, pero en el caso de las centrales nucleares aún es más importante, ya que al ser menor la temperatura y la presión del vapor producido también lo es el rendimiento térmico.
• La contaminación radiactiva representa el principal problema de los nucleares, pero las seguridades del diseño, construcción y explotación, impiden que las radiaciones de estas plantas tengan incidencia apreciable en el medio ambiente.
Un reactor de fisión produce tres tipos de sustancias o material radiactivo: productos de fisión, de activación y actinidos. La emisión de este tipo de materiales comporta riesgos de irradiación y la seguridad de la industria nuclear depende de que estas emisiones se controlen a un nivel, de forma que no produzca una gran acción en el medio ambiente.
En resumen, el mayor problema que presenta la utilización de la energía nuclear es el del tratamiento, manejo, almacenamiento de los residuos radiactivos, especialmente el de los de alta radiactividad.
El hecho básico es que la radiactividad produce riesgos reales par la salud, las fugas rutinarias por vía aérea o acuática de las instalaciones nucleares incrementan estos riesgos, mientras que las propias instalaciones son una permanente amenaza de accidentes y de proliferación de materiales nucleares
Los residuos nucleares son también un problema: ¿dónde ponerlos sin que produzcan riesgos de contaminación?
Los residuos radiactivos se pueden clasificar de muy diversas maneras: en función de su estado físico, tipo de radiación que emiten, actividad específica, etc. Lo normal es verlos clasificados en residuos de baja, media y alta actividad.
Los de baja y media actividad emiten radiactividad durante periodos de tiempo que pueden alcanzar los centenares de años. Existe una gran diversidad de materiales que pueden llegar a ser residuos de este tipo: guantes, ropa, herramientas, etc... que hayan estado en contacto con material altamente radiactivo, hasta materiales procedentes de la clausura de instalaciones nucleares.
Los residuos de alta actividad son mucho más peligrosos. Emiten radiaciones durante miles de años (hasta millones de años) y tienen una toxicidad muy elevada.
Entre estos residuos se encuentra el Plutonio-239, de una tremenda toxicidad, un gramo de este elemento es capaz de causar cáncer a un millón de personas. Además emite una radiactividad durante 2500000 años (50 veces más tiempo que la historia conocida de la Humanidad) lo cual hace pensar en las muchísimas generaciones, aún por venir, que tendrán que soportar el legado irresponsable de los residuos radiactivos.
La producción de armas nucleares en Estados Unidos ha generado cerca de cuatro millones de metros cúbicos (140 millones de pies cúbicos) de combustible usado, desperdicio de alto nivel, desperdicio transuránico, y desperdicio de bajo nivel. (No incluidos en ese total están cantidades aún más grandes de desperdicios radioactivos del minado y procesamiento de uranio y tierra contaminada por desechos en el subsuelo. Desperdicios peligrosos no-radioactivos y desperdicios sólidos han sido también generados en grandes cantidades. Por volumen, los desperdicios TRU constituyen menos del seis por ciento del legado de desperdicios nucleares y sólo alrededor de un tercio de estos desperdicios TRU almacenados son “recuperables” y por lo tanto pueden ser empacados y enviados a WIPP. La gran mayoría de los desperdicios fueron desechados en zanjas hasta 1970. Ya que existen tan solo algunos récords confiables de aquellos desperdicios “enterrados”, los volúmenes exactos y composición de aquellos materiales no es conocido. Pero algunos de los desperdicios enterrados han migrado en la tierra y en algunos casos hacía aguas subterráneas, representando una amenaza significativa porque no están resguardados.

APLICACIÓN DE ISOTOPOS COMO MARCADORES

• Análisis de isótopo es la determinación de firma isotópica, los abundances relativos de isótopos de un elemento dado en una muestra particular. Para sustancias biogénicas particularmente, las variaciones significativas de isótopos de C, de N y de O pueden ocurrir. El análisis de tales variaciones tiene una amplia gama de usos, tales como la detección de la adulteración de los productos alimenticios.[4] La identificación de ciertos meteoritos como siendo originado encendido Marte se basa en parte sobre la firma isotópica de los gases del rastro contenidos en ellos.[5]
• Otro uso común es etiquetado isotópico, el uso de isótopos inusuales como trazalíneas o marcadores en reacciones químicas. Normalmente, los átomos de un elemento dado son indistinguibles de uno a. Sin embargo, usando los isótopos de diversas masas, pueden ser distinguidos cerca spectrometry total o espectroscopia infrarroja (véase las “características”). Por ejemplo, en el 'isótopo estable que etiqueta con aminoácidos en cultura de célula (SILAC) los 'isótopos estables se utilizan para cuantificar proteínas. Si se utilizan los isótopos radiactivos, pueden ser detectados por la radiación que emiten (se llama esto etiquetado radioisotópico).
• Una técnica similar al etiquetado radioisotópico es el fechar radiométrico: usando sabido período de un elemento inestable, uno puede calcular la cantidad de tiempo que ha transcurrido desde que existió un nivel sabido del isótopo. El ejemplo lo más extensamente posible sabido es el fechar del radiocarbono determinaban la edad de materiales carbonosos.
• La substitución isotópica se puede utilizar para determinar el mecanismo de una reacción vía efecto cinético del isótopo

FECHADO DE CARBONO

El método de Carbono 14 es usado comúnmente para fechar material orgánico o material que en algún tiempo fue parte de un organismo vivo.
Este método está basado en la medida del elemento radiactivo carbono 14, que se encuentra en todos los tejidos vivos. Como resultado de la radiación que pasa a través de la atmósfera superior de la tierra, los átomos ordinarios de nitrógeno se transforman en carbono 14 radiactivo. Algunos de estos átomos radiactivos son entonces incorporados en las moléculas de dióxido de carbono las cuales son a su vez absorbidas por las plantas en el proceso de fotosíntesis. Los animales consumen material vegetal o carne cuyo origen también está vinculado en alguna forma con las plantas. Cada organismo en sí, ya sea planta o animal, contiene una cierta cantidad de carbono 14 radiactivo.
Cuando un organismo muere, la absorción de carbono 14 cesa y el elemento radiactivo comienza el proceso de decadencia de regreso a nitrógeno. Al medir la cantidad de carbono radiactivo en una muestra se puede determinar la fecha de su muerte. Cuanto más carbono 14 esté presente, menor será la edad y cuanto menos tenga, más antiguo será el espécimen.
Al igual que los otros métodos de fechado radiométrico, el método Carbono 14 depende de varias hipótesis. Primero, para que este método de fechado funcione, la cantidad de carbono radiactivo en la atmósfera de la tierra debe haber sido constante. Esto significaría que la tasa de formación de carbono radiactivo habría tenido que ser igual a la tasa de decadencia en la época en que vivió el espécimen. Segundo, hay que suponer que la medida de decadencia era en el pasado la misma de hoy. Tercero, ninguna contaminación de carbono radiactivo podía ocurrir desde la muerte del espécimen.
A fin de evaluar completamente la exactitud del método de fechado carbono 14, procedamos a examinar la evidencia observable. Hay un número de factores en el medio que podemos considerar, los cuales indicarían que la tasa de formación de carbono radiactivo no ha sido constante en el pasado.
1.La disminución de la fuerza del campo magnético de la tierra, lo que provoca que la radiación cósmica penetre más fácilmente en la atmósfera de la tierra.
2.La actividad volcánica, que libera dióxido de carbono. Los períodos de violentas erupciones volcánicas transtornarían el balance del C-14 requerido para que este método fuera válido.
3.Las pruebas nucleares llevadas a cabo hace varias décadas han sido responsables de un aumento en la tasa de formación de carbono radiactivo

RALLOS DE ALTA ENERGIA
Los rayos cósmicos no son el único signo existente de partículas de alta energía del distante universo. Existen otras evidencias adicionales (al igual que la mayor parte de datos astronómicos) de la luz visible y de otros tipos de ondas electromagnéticas, p.e. de los rayos X y de las ondas de radio.
Normalmente estas ondas llegan en de dos formas, como “procesos del fotón” y mediante procesos que se parecen a las ondas de radiodifusión.

Procesos del Fotón

Los procesos fotónicos están relacionados con la naturaleza cuántica de la luz, descubierta en el siglo XX, mediante la cual, la luz o cualquier otra onda electromagnética solo es creada o absorbida en “paquetes de energía” denominados fotones. Cuanto más corta sea la longitud de la onda, más energético es el fotón - por ejemplo, como la luz azul tiene una longitud de onda más corta que la luz roja, sus fotones tienen más energía. Las películas en blanco y negro se pueden manipular en los cuartos oscuros de fotografía solo iluminados mediante luz roja, debido a que los fotones rojos no llevan la suficiente energía como para iniciar los cambios químicos que oscurecen la película.
Los fotones de la luz visible tienen unos 2 electron-voltios (ev), mientras que los fotones de los rayos X médicos pueden tener energías de 50.000 ev y los de los rayos gamma llegan a 1.000.000 ev e incluso más. La llegada de fotones de rayos X de (digamos) 50.000 ev desde el espacio es la evidencia de la existencia de partículas con al menos esa energía, a menudo mucha más, ya que cada fotón proviene de una única partícula. No existe ningún proceso mediante el que, por ejemplo, diez electrones con 5.000 ev cada uno combinen su energía para crear un único fotón de 50.000 ev.
Los rayos X celestiales no se pueden observar desde el suelo porque la atmósfera los absorbe rápidamente. Sin embargo pueden alcanzar a observatorios en satélites que estén en órbita sobre la atmósfera y varios de ellos han cartografiado el cielo de rayos X - el pequeño Uhuru y el mayor Einstein, lanzados por la NASA, y más recientemente el europeo, muy exitoso, ROSAT, cuyo nombre (Roentgen-satélite) honra la memoria del descubridor de los rayos X. Algunas fuentes de rayos X parecen asociadas a extrañas estrellas binarias y a agujeros negros, otras aún nos desconciertan, pero todas sugieren una fuente de partículas de alta energía.

BIBLOGRAFIA

enciclopedia universal. La energía nuclear

Ciencia nuclear Wiki de Nucleonica

Juan Cortina cortina@ifae.es
Institut de Fisica d'Altes Energies
Colaboración MAGIC

CONCLUCION

Existen muchos tipos de energía en particular la radiactividad natural que es a aquella radiactividad que existe en la naturaleza sin que haya existido intervención humana Puede provenir de dos fuentes:
1. Materiales radiactivos existentes en la Tierra desde su formación, los llamados primigenios.
2. Materiales radiactivos generados por la interacción de los rayos cósmicos con los materiales de la Tierra que originalmente no eran radiactivos, los llamados cosmogónicos.
El fenómeno de la radiactividad se origina exclusivamente en el núcleo de los átomos radiactivos. Y la causa que lo origina se cree que es debida a la interacción neutrón-protón del mismo.
Aunque estos tipo de energía son muy importantes para el ser humano tienes sus desventajas, que es la contaminación o radiación. Lo trágico es que el daño genético que ocasiona la radiación puede pasar de una generación a otra, afectando potencialmente a la descendencia de todas las especies.
Los tipos de contaminación que producen las centrales son dos: radiactividad y contaminación térmica.
• La contaminación térmica es común a las centrales térmicas convencionales, pero en el caso de las centrales nucleares aún es más importante, ya que al ser menor la temperatura y la presión del vapor producido también lo es el rendimiento térmico.
• La contaminación radiactiva representa el principal problema de los nucleares, pero las seguridades del diseño, construcción y explotación, impiden que las radiaciones de estas plantas tengan incidencia apreciable en el medio ambiente.

INTITUTO TECNOLOGICO DEL VALLE DEL YAQUI

TRABAJO FINAL

MATERIA: QUIMIA

MAESTRA: DAMARIS

ALUMNO: CASTRO GRIJALVA J.

INDICE

QUIMICA NUCLEAR……………………………2

RADIOCTIVIDA NADTURAL………………….3

REACIONES NUCLEARES, DESINTEGRACIONES ASPECTOS DE SALUD Y SEGURIDAD…………...5

APLICACIONES DE ISOTOPOS COMO MARCADORES………………………………………...8

FECHADO DE CARBONO……………………………9

RALLO DE ALTA ENRGIA…………………………..10

predecibilidad

Predicción tiene por etimología el latín pre+dicere, esto es, “decir antes”. Una vez
sabido el significado general, conviene irlo afinando para ajustarlo a los usos que la
práctica demanda. Por ello, no se trata sólo de “decir antes”, sino de “decirlo bien”, o
sea, acertar; también, hacerlo con un plazo suficiente para poder tomar las medidas que
se crean oportunas, y además tener una idea de hasta cuándo es posible predecir el
futuro con cierto éxito.
Cuando se efectúa una predicción, se está estimando un valor futuro de alguna variable
que se considere representativa de una cierta situación. Por ejemplo, en cuestiones
climáticas podría tratarse de temperaturas medias de la atmósfera en determinados
niveles, concentraciones de gases, precipitación, etc. También se pueden hacer
predicciones espaciales, como la ubicación, movilidad e intensidad local de fenómenos
extremos, caso por ejemplo de los huracanes y tormentas tropicales (Fernández &
Pacheco 2000, Pacheco & Hayek 1997). Normalmente ambos tipos de predicción están
ligados y se realizan a la vez, como lo prueban los productos que ofrecen las grandes
agencias e institutos de Meteorología y Climatología.
Las estimaciones realizadas para predecir se denominan predictores. Pueden construirse
de modos muy diversos, de algunos de los cuales nos ocuparemos en este trabajo, y su
bondad se mide -como es natural- por el porcentaje de aciertos en situaciones del pasado
predichas con igual técnica. Las bases de registros disponibles hoy día permiten realizar
experimentos de predecibilidad con datos pasados y simular situaciones ya conocidas
mediante diversas técnicas, estudiando y comparando los resultados. Es claro que para
estos experimentos la tercera propiedad de la predicción no tiene demasiado interés,
pues la predicción -o mejor, simulación- del pasado no incita a la prisa.
Prácticamente todos los registros interesantes en Meteorología y Climatología se
presentan en forma de series temporales, esto es, los datos están ordenados de forma
correlativa respecto del tiempo. En fórmulas, se trata de trabajar con conjuntos de
valores de la forma {X t
t = 1,2,..., N}.
En esencia, el análisis de datos temporales se reduce a encontrar pautas o patrones que
se repiten más o menos exactamente a lo largo de ellas. Para las series meteorológicas,
por ejemplo, existe una pauta periódica de un año que se corresponde con el periodo de
traslación de la Tierra alrededor del Sol. Para datos tomados a intervalos muy cortos de
tiempo es posible distinguir la pauta diaria de día/noche asociada a la rotación de la
Tierra, y varias más. Todas estas pautas pueden ser sustraídas de la señal original
dejando un resto o residuo como resultado de este primer análisis:
t t t
X = P + R

Espejos

Espejos
Un espejo es una superficie pulida en la que al incidir la luz, se refleja siguiendo las leyes de la reflexión.
El ejemplo más sencillo es el espejo plano. En este último, un haz de rayos de luz paralelos puede cambiar de dirección completamente en conjunto y continuar siendo un haz de rayos paralelos, pudiendo producir así una imagen virtual de un objeto con el mismo tamaño y forma que el real. La imagen resulta derecha pero invertida en el eje normal al espejo.
También existen espejos cóncavos y espejos convexos. En un espejo cóncavo cuya superficie forma un paraboloide de revolución, todos los rayos que inciden paralelos al eje del espejo, se reflejan pasando por el foco, y los que inciden pasando por el foco, se reflejan paralelos al eje los espejos son objetos que reflejan casi toda la luz que choca contra su superficie debido a este fenomeno podemos observar nuestra imagen en ellos.


Los espejos como utensilios de tocador y objeto manual fueron muy usados en las civilizaciones egipcia, griega, etrusca y romana. Se elaboraban siempre con metal bruñido, generalmente cobre, plata o bronce, a este proceso se le conoce como plateo. Tenían forma de placa redonda u oval, decorada ordinariamente con grabados o relieves mitológicos en el reverso (los romanos carecen de grabados, pero no de relieves) y con mango tallado para asirlos cómodamente; de ellos, se conservan todavía muchos ejemplares en algunos museos arqueológicos. Durante la alta Edad Media, apenas se hizo uso del espejo, hasta que en el siglo XIII se inventó la fabricación de los de vidrio y de cristal de roca sobre lámina metálica (o con amalgama de plomo o estaño que son los espejos azogados), sin dejar por esto de construirse los de sólo metal hasta el siglo XVIII.
El espejo, como mueble de habitación, empieza con el siglo XVI, pues aunque durante los dos siglos anteriores se citan algunos ejemplares históricos apenas era conocido y su uso era poco corriente. En dicho siglo, se presenta con marco elegante y pie artístico y ocupa lugar distinguido en el salón como objeto movible y de dimensiones reducidas. Hacia fines del siglo XVII las fábricas venecianas logran construir espejos de gran tamaño y desde entonces sirven como objetos singularmente decorativos en los salones, en los que ocupan un lugar destacado.
Los espejos modernos consisten de una delgada capa de plata o aluminio depositado sobre una plancha de vidrio, la cual protege el metal y hace al espejo más duradero.
También cuenta la leyenda, que cuando los europeos llegaron a América, trajeron consigo el espejo, y era tal la impresión de los americanos que llegaron a cambiar el espejo por oro.
Fórmulas Físicas

Para una imagen formada por un espejo parabólico (o esférico de pequeña abertura, donde sea válida la aproximación paraxial) se cumple que:
en la que f es la distancia del foco al espejo, s la distancia del objeto al espejo y s' la distancia de la imagen formada al espejo, se lee: "La inversa de la distancia focal es igual a la suma de la inversa de la distancia del objeto al espejo con la inversa de la distancia de la imagen al espejo"
y
en la que m es la magnificación o agrandamiento lateral.
Folklore
El espejo ocupa un lugar importante en la mitología y las supersticiones de muchos pueblos. La imagen que en él se refleja se identifica a menudo con el alma o espíritu de la persona: de ahí por ejemplo que los vampiros, cuerpos sin alma, no se reflejen en él. Cuando un moribundo está a punto de dejar este mundo, es común que se cubran los espejos, por temor a que el alma del agonizante quede encerrada en ellos.
El espejo se concibe, así, como ventana al mundo de los espíritus. La leyenda urbana de Verónica aprovecha ejemplarmente esta visión. Viceversa, el mundo de los espíritus tiende a imaginarse como una contrapartida especular del de los vivos. Lewis Carroll desarrolla magistralmente la idea del espejo como entrada a un mundo inverso en la segunda parte de las aventuras de Alicia.
El espejo es también objeto frecuente de consulta: se le juzga capaz de mostrar sucesos y objetos distantes en el tiempo o el espacio. En el cuento de Blancanieves, el espejo tiene la facultad de hablar y responde a las preguntas que le formula la madrastra. J. R. R. Tolkien retoma con su célebre «espejo de Galadriel» la tradición del espejo capaz de mostrar el futuro. En la novela Harry Potter y la piedra filosofal, de J. K. Rowling, aparece el espejo de Oesed (Deseo leído a la inversa), que no refleja la imagen de quien lo contempla, sino sus deseos más profundos.
También es notable el Espejo de la Sabiduría (en el que se refleja "todas las cosas del cielo y de la tierra excepto el rostro de quien se mira en él"), descrito por Oscar Wilde en el cuento El pescador y su alma.

Energía [Recopilado por: Mendoza Martínez Oscar Alberto]

El concepto de energía en física

En la física, la ley universal de conservación de la energía, que es la base para el primer principio de la termodinámica, indica que la energía ligada a un sistema aislado permanece en el tiempo. No obstante, la teoría de la relatividad especial establece una equivalencia entre masa y energía por la cual todos los cuerpos, por el hecho de estar formados de materia, contienen energía; además, pueden poseer energía adicional que se divide conceptualmente en varios tipos según las propiedades del sistema que se consideren. Por ejemplo, la energía cinética se cuantifica según el movimiento de la materia, la energía química según la composición química, la energía potencial según propiedades como el estado de deformación o a la posición de la materia en relación con las fuerzas que actúan sobre ella y la energía térmica según el estado termodinámico.
La energía no es un estado físico real, ni una "sustancia intangible" sino sólo una magnitud escalar que se le asigna al estado del sistema físico, es decir, la energía es una herramienta o abstracción matemática de una propiedad de los sistemas físicos. Por ejemplo, se puede decir que un sistema con energía cinética nula está en reposo.
Se utiliza como una abstracción de los sistemas físicos por la facilidad para trabajar con magnitudes escalares, en comparación con las magnitudes vectoriales como la velocidad o la posición. Por ejemplo, en mecánica, se puede describir completamente la dinámica de un sistema en función de las energías cinética, potencial, que componen la energía mecánica, que en la mecánica newtoniana tiene la propiedad de conservarse, es decir, ser invariante en el tiempo.
Matemáticamente, la conservación de la energía para un sistema es una consecuencia directa de que las ecuaciones de evolución de ese sistema sean independientes del instante de tiempo considerado, de acuerdo con el teorema de Noether.
Energía en diversos tipos de sistemas físicos
La energía también es una magnitud física que se presenta bajo diversas formas, está involucrada en todos los procesos de cambio de Estado físico, se transforma y se transmite, depende del sistema de referencia y fijado éste se conserva.1 Por lo tanto todo cuerpo es capaz de poseer energía, esto gracias a su movimiento, a su composición química, a su posición, a su temperatura, a su masa y a algunas otras propiedades. En las diversas disciplinas de la física y la ciencia, se dan varias definiciones de energía, por supuesto todas coherentes y complementarias entre sí, todas ellas siempre relacionadas con el concepto de trabajo.
Física clásica
En la mecánica se encuentran:
Energía mecánica, que es la combinación o suma de los siguientes tipos:
Energía cinética: relativa al movimiento.
Energía potencial: la asociada a la posición dentro de un campo de fuerzas conservativo. Por ejemplo, está la Energía potencial gravitatoria y la Energía potencial elástica (o energía de deformación, llamada así debido a las deformaciones elásticas). Una onda también es capaz de transmitir energía al desplazarse por un medio elástico.
En electromagnetismo se tiene a la:
Energía electromagnética, que se compone de:
Energía radiante: la energía que poseen las ondas electromagnéticas.
Energía calórica: la cantidad de energía que la unidad de masa de materia puede desprender al producirse una reacción química de oxidación.
Energía potencial eléctrica (véase potencial eléctrico)
Energía eléctrica: resultado de la existencia de una diferencia de potencial entre dos puntos.
En la termodinámica están:
Energía interna, que es la suma de la energía mecánica de las partículas constituyentes de un sistema.
Energía térmica, que es la energía liberada en forma de calor, obtenida de la naturaleza (energía geotérmica) mediante la combustión.
Física relativista
En la relatividad están:
Energía en reposo, que es la energía debida a la masa según la conocida fórmula de Einstein, E=mc2, que establece la equivalencia entre masa y energía.
Energía de desintegración, que es la diferencia de energía en reposo entre las partículas iniciales y finales de una desintegración.
Al redefinir el concepto de masa, también se modifica el de energía cinética (véase relación de energía-momento).
Física cuántica
En física cuántica, la energía es una magnitud ligada al operador hamiltoniano. La energía total de un sistema no aislado de hecho puede no estar definida: en un instante dado la medida de la energía puede arrojar diferentes valores con probabilidades definidas. En cambio, para los sistemas aislados en los que el hamiltoniano no depende explícitamente del tiempo, los estados estacionarios sí tienen una energía bien definida. Además de la energía asociadas a la materia ordinaria o campos de materia, en física cuántica aparece la:
Energía del vacío: un tipo de energía existente en el espacio, incluso en ausencia de materia.

LUZ [Recopilado por Lazaro Gonzalez Alejandro]

Luz

Se llama luz (del latín lux, lucís) a la radiación electromagnética que puede ser percibida por el ojo humano. En física, el término luz se usa en un sentido más amplio e incluye el rango entero de radiación conocido como el espectro electromagnético, mientras que la expresión luz visible denota la radiación en el espectro visible.
La óptica es la rama de la física que estudia el comportamiento de la luz, sus características y sus manifestaciones


Propiedades


Reflexión y dispersión

Al incidir la luz en un cuerpo, la materia de la que está constituido retiene unos instantes su energía y a continuación la reemite en todas las direcciones. Este fenómeno es denominado reflexión. Sin embargo, en superficies ópticamente lisas, debido a interferencias destructivas, la mayor parte de la radiación se pierde, excepto la que se propaga con el mismo ángulo que incidió. Ejemplos simples de este efecto son los espejos, los metales pulidos o el agua de un río (que tiene el fondo oscuro).
La luz también se refleja por medio del fenómeno denominado reflexión interna total, que se produce cuando un rayo de luz, intenta salir de un medio en que su velocidad es más lenta a otro más rápido, con un determinado ángulo. Se produce una refracción de tal modo que no es capaz de atravesar la superficie entre ambos medios reflejándose completamente. Esta reflexión es la responsable de los destellos en un diamante tallado.
Cuando la luz es reflejada difusa e irregularmente, el proceso se denomina dispersión. Gracias a este fenómeno podemos seguir la trayectoria de la luz en ambientes polvorientos o en atmósferas saturadas. El color azul del cielo se debe a la luz del sol dispersada por la atmósfera. El color blanco de las nubes o el de la leche también se debe a la dispersión de la luz por el agua o por el calcio que contienen respectivamente
Efectos químicos
Artículo principal: Fotoquímica
Algunas sustancias al absorber luz, sufren cambios químicos; utilizan la energía que la luz les transfiere para alcanzar los niveles energéticos necesarios para reaccionar, para obtener una conformación estructural más adecuada para llevar a cabo una reacción o para romper algún enlace de su estructura (fotólisis).
La fotosíntesis en las plantas, que generan azúcares a partir de dióxido de carbono, agua y luz; la síntesis de vitamina D en la piel; la ruptura de di halógenos con luz en las reacciones radical arias o el proceso de visión en el ojo, producido por la isomerización del retinol con la luz, son ejemplos de reacciones fotoquímicas. El área de la química encargada del estudio de estos fenómenos es la fotoquímica.

En 1845, Michael Faraday descubrió que el ángulo de polarización de la luz se podía modificar aplicándole un campo magnético (efecto Faraday), proponiendo dos años más tarde que la luz era una vibración electromagnética de alta frecuencia. James Clerk Maxwell, inspirado por el trabajo de Faraday, estudió matemáticamente estas ondas electromagnéticas y se dio cuenta de que siempre se propagaban a una velocidad constante, que coincidía con la velocidad de la luz, y de que no necesitaban medio de propagación ya que se auto propagaban. La confirmación experimental de las teorías de Maxwell eliminó las últimas dudas que se tenían sobre la naturaleza ondulatoria de la luz.
No obstante, a finales del siglo XIX, se fueron encontrando nuevos efectos que no se podían explicar suponiendo que la luz fuese una onda, como, por ejemplo, el efecto fotoeléctrico, esto es, la emisión de electrones de las superficies de sólidos y líquidos cuando son iluminados. Los trabajos sobre el proceso de absorción y emisión de energía por parte de la materia sólo se podían explicar si uno asumía que la luz se componía de partículas. Entonces la ciencia llegó a un punto muy complicado e incomodo: se conocían muchos efectos de la luz, sin embargo, unos sólo se podían explicar si se consideraba que la luz era una onda, y otros sólo se podían explicar si la luz era una partícula.
El intento de explicar esta dualidad onda-partícula, impulsó el desarrollo de la física durante el siglo XX. Otras ciencias, como la biología o la química, se vieron revolucionadas ante las nuevas teorías sobre la luz y su relación con la materia.


Naturaleza de la luz

La luz presenta una naturaleza compleja: depende de cómo la observemos se manifestará como una onda o como una partícula. Estos dos estados no se excluyen, sino que son complementarios (véase Dualidad onda corpúsculo). Sin embargo, para obtener un estudio claro y conciso de su naturaleza, podemos clasificar los distintos fenómenos en los que participa según su interpretación teórica

Teoría ondulatoria

Descripción

Esta teoría, desarrollada por Christian Huygens, considera que la luz es una onda electromagnética, consistente en un campo eléctrico que varía en el tiempo generando a su vez un campo magnético y viceversa, ya que los campos eléctricos variables generan campos magnéticos (ley de Ampere) y los campos magnéticos variables generan campos eléctricos (ley de Faraday). De esta forma, la onda se auto propaga indefinidamente a través del espacio, con campos magnéticos y eléctricos generándose continuamente. Estas ondas electromagnéticas son sinusoidales, con los campos eléctrico y magnético perpendiculares entre sí y respecto a la dirección de propagación .


Una de las propiedades de la luz más evidentes a simple vista es que se propaga en línea recta. Lo podemos ver, por ejemplo, en la propagación de un rayo de luz a través de ambientes polvorientos o de atmósferas saturadas. La óptica geométrica parte de esta premisa para predecir la posición de la luz, en un determinado momento, a lo largo de su transmisión.
De la propagación de la luz y su encuentro con objetos surgen las sombras. Si interponemos un cuerpo opaco en el camino de la luz y a continuación una pantalla, obtendremos sobre ella la sombra del cuerpo. Si el origen de la luz o foco se encuentra lejos del cuerpo, de tal forma que, relativamente, sea más pequeño que el cuerpo, se producirá una sombra definida. Si se acerca el foco al cuerpo surgirá una sombra en la que se distinguen una región más clara denominada penumbra y otra más oscura denominada umbral.
Sin embargo, la luz no siempre se propaga en línea recta. Cuando la luz atraviesa un obstáculo puntiagudo o una abertura estrecha, el rayo se curva ligeramente. Este fenómeno, denominado difracción, es el responsable de que al mirar a través de un agujero muy pequeño todo se vea distorsionado o de que los telescopios y microscopios tengan un número de aumentos máximo.

Luz en movimiento

La primera de estas situaciones inexplicables se producía cuando la luz se emitía, se transmitía o se recibía por cuerpos o medios en movimiento. Era de esperar, según la física clásica, que la velocidad en estos casos fuese el resultado de sumar a la velocidad de la luz, la velocidad del cuerpo o del medio. Sin embargo, se encontraron varios casos en los que no era así:


En 1818, Agustín Fresnal propuso un experimento para medir la velocidad a la que la luz atravesaba un líquido en movimiento. Para ello, se haría atravesar a la luz una columna de un líquido que fluyese a una velocidad v relativa al observador. Conociendo la velocidad v' a la que se trasmite la luz a través de ese medio (a través del índice de refracción), se calculó que la velocidad total de la luz en ese fluido sería:

Sin embargo, cuando en 1851, el físico francés Hippolyte Fizeau llevó a cabo el experimento, comprobó que la velocidad a la que la luz atravesaba el líquido en movimiento no era la calculada sino:

Distorsiones espectrales


Al comparar el espectro de la luz procedente de algunos cuerpos celestes, con los espectros medidos en el laboratorio de los mismos elementos que los que contienen esos cuerpos, se observa que no son iguales, ya que las líneas espectrales procedentes del espacio están desplazadas hacia posiciones de mayor longitud de onda, es decir, hacia el lado rojo del espectro en lugares de menor energía.
Se han encontrado dos tipos diferentes de desplazamientos de líneas espectrales:
Uno, el más común, llamado desplazamiento nebular es un desplazamiento sistemático de los espectros procedentes de las estrellas y galaxias. Edwin Hubble tras estudiar el corrimiento de los espectros de las nebulosas, lo interpretó como el resultado del efecto Doppler debido a la expansión continua del universo. Gracias a esto propuso una fórmula capaz de calcular la distancia que nos separa de un cuerpo determinado analizando el corrimiento de su espectro

Espectro electromagnético

El espectro electromagnético está constituido por todos los posibles niveles de energía que la luz puede tomar. Hablar de energía es equivalente a hablar de longitud de onda; luego, el espectro electromagnético abarca, también, todas las longitudes de onda que la luz pueda tener, desde miles de kilómetros hasta fotómetros. Es por eso que la mayor parte de las representaciones esquemáticas del espectro suelen tener escala logarítmica.



El espectro electromagnético se divide en regiones espectrales, clasificadas según los métodos necesarios para generar y detectar los diversos tipos de radiación. Es por eso que estas regiones no tienen una frontera definida y existen algunos solapamientos entre ellas.

Espectro visible

De todo el espectro, la porción que el ser humano es capaz de ver es muy pequeña en comparación con las otras regiones espectrales. Esta región, denominada espectro visible, comprende longitudes de onda desde los 380 nm hasta los 780 nm. La luz de cada una de estas longitudes de onda es percibida por el ojo humano como un color diferente, por eso, en la descomposición de la luz blanca en todas sus longitudes de onda, por prismas o por la lluvia en el arco iris, el ojo ve todos los colores.