domingo, 7 de junio de 2015

la fotosíntesis

la fotosíntesis
La fotosíntesis es el proceso de elaboración de los alimentos por parte de las plantas. Los árboles y las plantas usan la fotosíntesis para alimentarse, crecer y desarrollarse.

Para realizar la fotosíntesis, las plantas necesitan de la clorofila, que es una sustancia de color verde que tienen en las hojas. Es la encargada de absorber la luz adecuada para realizar este proceso. A su vez, la clorofila es responsable del característico color verde de las plantas.

El proceso completo de la alimentación de las plantas consiste básicamente en:

a- Absorción: Las raíces de las plantas crecen hacia donde hay agua. Las raíces absorben el agua y los minerales de la tierra.

b- Circulación: Con el agua y los minerales absorbidos por las raíces hasta las hojas a través del tallo.

c- Fotosíntesis: Se realiza en las hojas, que se orientan hacia la luz. La clorofila de las hojas atrapa la luz del Sol. A partir de la luz del Sol y el dióxido de carbono, se transforma la savia bruta en savia elaborada, que constituye el alimento de la planta. Además la planta produce oxígeno que es expulsado por las hojas.


d- Respiración: Las plantas , al igual que los animales, tomando oxígeno y expulsando dióxido de carbono. El proceso se produce sobre todo en las hojas y el los tallos verdes. La respiración la hacen tanto de día como por la noche, en la que, ante la falta de luz, las plantas realizan solamente la función de respiración. 
Producto  de la fotosíntesis
La primera molécula orgánica que se forma en la fotosíntesis, a partir del ciclo de Calvin, es el gliceraldehído 3-fosfato. Luego, esta molécula será la precursora de diferentes tipos de moléculas orgánicas, algunas de las cuales únicamente tendrán C, H y O, mientras que otras tendrán además N o S orgánico. Para la síntesis de compuestos orgánicos con carbono basta con el gliceraldehído. Lo más común es que dos moléculas de gliceraldehído se unan formando un molécula de glucosa, que se suele considerar como el producto final de la fotosíntesis.


en que organelo ocurre la fotosíntesis
La fotosíntesis tiene lugar en los cloroplastos, orgánulos del citoplasma de forma discoidea verde, limitados por una membrana definida, que son auto reproductivos. Separados del resto de la célula, los cloroplastos pueden realizar el proceso completo de la fotosíntesis. Cuerpos como éstos se encuentran en las células de las algas rojas, pero éstas además de clorofila contienen como pigmento principal otro derivado tetrapirrólico: las ficobilinas. El microscopio electrónico muestra que tienen una estructura altamente organizada, en las que las moléculas de clorofila están situadas dentro de estructuras ordenadas llamadas grana y cada grana está conectada con otros por un retículo de fibras o membranas.
Los cloroplastos contienen clorofila, pigmento verde que absorbe la energía de la luz solar.

Las hojas son el lugar principal donde se realiza la fotosíntesis y contienen diversas adaptaciones para ésta función:

•Láminas planas: que proporcionan amplia superficie para la absorción de la luz del sol.
•Estomas (poros): en el envés, que permiten la entrada y salida de los gases (anhídrido carbónico y oxígeno).
•Extenso entramado vascular: que transporta agua a las hojas (xilema) y la glucosa producida por la fotosíntesis al resto de la planta (floema).

la clorofila
¿ que es la clorofila?
Como algunos sabrán,  la clorofila es una de los compuestos  químicos fundamentales  de  todas las plantas; esta biomolécula  no sólo es las responsable de color verde que tienen la mayoría de los integrantes del reino vegetal,  sino  que también es la principal involucrada, junto con luz, en el proceso  de fotosíntesis, por la cual las plantas se nutren.

transpiración de las plantas

La transpiración vegetal consiste en la pérdida de agua en forma de vapor que se produce en las plantas. A las hojas de ésta llega gran cantidad de agua absorbida por las raíces, pero sólo una pequeña parte se utiliza en la fotosíntesis. Su principal función es eliminar en forma de vapor el agua que no es utilizada por las plantas. Además, el agua transpirada permite el enfriamiento de la planta, debido al elevado calor de vaporización del agua (para evaporarse necesita consumir muchas calorías).

Normalmente es muy difícil distinguir la transpiración de la evaporación proveniente del suelo por lo que al fenómeno completo se le denomina "evapotranspiración", siendo éste un parámetro importante en el diseño de la técnicas de regadío que se utilizarán. 

domingo, 17 de mayo de 2015

TRANSPORTE DE MATERIALES A TRAVES DE LAS MEMBRANAS PLASMATICAS

Los mecanismos que permiten a las sustancias cruzar las membranas plasmáticas son esenciales para la vida y la comunicación de las células. Para ello, la célula dispone de dos procesos:
Transporte pasivo: cuando no se requiere energía para que la sustancia cruce la membrana plasmática
Transporte activo: cuando la célula utiliza ATP como fuente de energía pasa hacer atravesar la membrana a una sustancia en particular
TRANSPORTE PASIVO

° Los mecanismos de transporte pasivo son:
° Difusión simple
° Osmosis
° Ultrafiltración
° Difusión facilitada
Difusión Simple
Las moléculas en solución están dotadas de energía cinética y, por tanto tienen movimientos que se realizan al azar. La difusión consiste en la mezcla de estas moléculas debido a su energía cinética cuando existe un gradiente de concentración, es decir cuando en una parte de la solución la concentración de las moléculas es más elevada. La difusión tiene lugar hasta que la concentración se iguala en todas las partes y será tanto más rápida cuanto mayor sea energía cinética (que depende de la temperatura) y el gradiente de concentración y cuanto menor sea el tamaño de las moléculas. 
Algunas sustancias como el agua, el oxígeno, dióxido de carbono, esteroides, vitaminas liposolubles, urea, glicerina, alcoholes de pequeño peso molecular atraviesan la membrana celular por difusión, disolviendose en la capa de fosfolípidos. 
 
Algunas sustancias iónicas también pueden cruzar la membrana plasmática por difusión, pero empleando los canales constituídos por proteínas integrales llenas de agua. Algunos ejemplos notables son el Na+, K+, HCO3, Ca++, etc. Debido al pequeño tamaño de los canales, la difusión a través de estos es mucho más lenta que a través de la bicapa fosfolipídica

Difusión facilitada
Algunas moléculas son demasiado grandes como para difundir a través de los canales de la membrana y demasiado insolubles en lípidos como para poder difundir a través de la capa de fosfolípidos. Tal es el caso de la glucosa y algunos otros monosacáridos. Esta sustancias, pueden sin embargo cruzar la membrana plasmática mediante el proceso de difusión facilitada, con la ayuda de una proteina transportadora. En el primer paso, la glucosa se une a la proteína transportadora, y esta cambia de forma, permitiendo el paso del azúcar. Tan pronto como la glucosa llega al citoplasma, una kinasa (enzima que añade un grupo fosfato a un azúcar) transforma la glucosa en glucosa-6-fosfato. De esta forma, las concentraciones de glucosa en el interior de la célula son siempre muy bajas, y el gradiente de concentración exterior --> interior favorece la difusión de la glucosa. 
 
La difusión facilitada es mucho más rápida que la difusión simple y depende: 
 
° del gradiente de concentración de la sustancia a ambos lados de la membrana 
° del número de proteínas transportadoras existentes en la membrana 
° de la rápidez con que estas proteínas hacen su trabajo
La insulina, una hormona producida por el páncreas, facilita la difusión de la glucosa hacia el interior de las células, disminuyendo su concentración en la sangre. Esto explica el porque la ausencia o disminución de la insulina en la diabetes mellitus aumenta los niveles de glucosa en sangre al mismo tiempo que obliga a las células a utilizar una fuente de energía diferente de este monosacárido
Osmosis

Es otro proceso de transporte pasivo, mediante el cual, un disolvente - el agua en el caso de los sistemas biológicos - pasa selectivamente a través de una membrana semi-permeable. La membrana de las células es una membrana semi-permeable ya que permite el paso del agua por difusión pero no la de iones y otros materiales. Si la concentración de agua es mayor (o lo que es lo mismo la concentración de solutos menor) de un lado de la membrana es mayor que la del otro lado, existe una tendencia a que el agua pase al lado donde su concentración es menor. 

El movimiento del agua a través de la membrana semi-permeable genera un presión hidrostática llamada presión osmótica. La presión osmótica es la presión necesaria para prevenir el movimiento neto del agua a través de una membrana semi-permeable que separa dos soluciones de diferentes concentraciones.
 
La ósmosis puede entenderse muy bien considerando el efecto de las diferentes concentraciones de agua sobre la forma de las células. Para mantener la forma de un célula, por ejemplo un hematíe, esta debe estar rodeada de una solución isotónica, lo que quiere decir que la concentración de agua de esta solución es la misma que la del interior de la célula. En condiciones normales, el suero salino normal (0.9% de NaCl) es isotónico para los hematíes. 

Si los hematíes son llevados a una solución que contenga menos sales (se dice que la solución es hipotónica), dado que la membrana celular es semi-permeable, sólo el agua puede atravesarla. Al ser la concentración de agua mayor en la solución hipotónica, el agua entra en el hematíe con lo que este se hincha, pudiendo eventualmente estallar (este fenómeno se conoce con el nombre de hemolisis.

Por el contrario, si los hematíes se llevan a una solución hipertónica (con una concentración de sales superior a la del hematíe) parte del agua de este pasará a la solución produciéndose el fenómeno de crenación y quedando los hematíes como "arrugados".

martes, 12 de mayo de 2015

Membrana plasmática

Membrana plasmática
La célula es una entidad altamente compleja y organizada con numerosas unidades y orgánulos funcionales. Muchas de estas unidades están separadas unas de otras por membranas que están especializadas para permitir que el orgánulo cumpla su función. Además, las membranas cumplen las siguientes funciones:
° Protegen la célula o el orgánulo
° Regulan el transporte hacia adentro o hacia afuera de la célula u orgánulo
° Permiten una fijación selectiva a determinadas entidades químicas a través de receptores lo que se traduce finalmente en la transducción de una señal
° Permiten el reconocimiento celular
° Suministran unos puntos de anclaje para filamentos citoesqueléticos o componentes de la matriz extracelular lo que permite mantener una forma
° Permiten la compartimentación de dominios subcelulares donde pueden tener lugar reacciones enzimáticas de una forma estable
° Regulan la fusión con otras membranas
° Permiten el paso de ciertas moléculas a través de canales o ciertas junciones
° Permite la motilidad de algunas células u orgánulos
La célula y su ambiente
La célula está en continua interacción con su medio externo incorporando y expulsando sustancias a través de la membrana. Está se caracteriza por actuar como una membrana selectiva, permitiendo el paso de algunas sustancias.
La membrana plasmática permite el ingreso de diferentes moléculas que no son capaces de atravesar libremente por difusión simple la bicapa lipídica, ya sea por que son polares, o muy grandes. Es aquí donde las proteínas insertadas en la membrana plasmática actúan, estas proteínas se conocen como proteínas transportadoras.

En los casos en que las proteínas permiten el paso de moléculas a favor de gradientes, se habla de transporte pasivo o difusión facilitada. Este tipo de transporte no necesita de energía para llevarse a cabo.
También hay casos de transporte contra gradiente, o transporte activo el cual necesita de energía para llevar a cabo.

Difusión
Diapositiva 9<
¢
Es el movimiento de átomos, moléculas o iones de una región de mayor concentración a una de menor concentración.

Difusión simple
Sustancias como el O2 y CO2 pasan a través de los poros de la membrana por difusión simple.

ESTRUCTURAS Y ORGANIZACIÓN DE LA MEMBRANA PLASMÁTICA
Hay diferencias entre el medio interno y el medio externo. Estas diferencias se mantienen durante toda la vida, gracias al control de entrada y salida de iones y moléculas a través de la membrana.

La membrana es tan fina que no puede ser observada al microscopio óptico, pero si al electrónico. Antes de la aparición de este último, ya se conocía la existencia de la membrana, puesto que había añadido “rojo de fenol” a células y habían observado al microscopio óptico que el colorante no penetraba en dichas células. Tenía que haber algo que las limitase.

La membrana plasmática se encuentra en todas las células sin excepción. Tanto en eucariotas como en procariotas.

Su función es controlar el intercambio de moléculas e iones entre la célula y el medio: PERMEABILIDAD CELULAR.
Modelo del mosaico fluido
El modelo más aceptado actualmente es el propuesto por Singer y Nicholson (1972), denominado modelo del MOSAICO FLUIDO.

La membrana plasmática no es una estructura estática, sus componentes pueden moverse, lo que le proporciona una cierta fluidez.

La fluidez es una de las características más importantes de las membranas. 
Depende de factores como :

1.-La temperatura; la fluidez aumenta al aumentar la temperatura.

2.-La naturaleza de los lípidos; la presencia de lípidos INSATURADOS y de cadena corta favorecen el aumento de la fluidez; la presencia de colesterol endurece las membranas, reduciendo su fluidez y permeabilidad, proporcionándole estabilidad.

Con los datos ofrecidos por la microscopía electrónica y los análisis 
bioquímicos se ha elaborado este modelo de membrana.


Características del modelo de MOSAICO FLUIDO:

1.-La membrana es como un mosaico fluido en el que la bicapa lipídica es la base o soporte y las proteínas están incorporadas o asociadas a ella, interactuando unas con otras y con los lípidos. Tanto las proteínas como los lípidos pueden desplazarse lateralmente.

2.-Los lípidos y las proteínas integrales se hallan dispuestos en mosaico.

3.-Las membranas son estructuras asimétricas en cuanto a la distribución de sus componentes, fundamentalmente de los glúcidos, que sólo se encuentran en la cara externa.
Glucocalix

La membrana celular de las células eucariotas está recubierta en su cara externa por una capa laxa de oligosacáridos y polisacáridos denominada
glucocálix
. Estos glúcidos pueden presentarse unidos covalentemente a lípidos (formando glucolípidos) o a proteínas (formando glucoproteínas), pero en todos los casos se sitúan en la superficie exterior de la membrana. Los monosacáridos constitutivos más importantes son: glucosa, manosa, galactosa, N-acetilglucosamina y N-acetilgalactosamina. En el exterior del glucocálix se sitúa una capa secretada por la célula, formada por colágeno, elastina y otras proteínas, que se denomina
matriz extracelular
. Un tipo especial, rico en colágeno, es la lámina basal a la que se unen las células epiteliales.
*** Funciones del glucocálix
 
Proporciona
protección mecánica y química a la superficie celular
frente a las lesiones, al tiempo que le
otorga
 
viscosidad
, lo que facilita el deslizamiento de células aisladas, como los eritrocitos.
 
Representa la zona de
identificación
de las células. Mediante él entran en contacto y comunicación diferentes células. Unejemplo de este fenómeno es la llamada
inhibición por contacto
: las células, al juntarse, interrumpen su movimiento, elcrecimiento y la división celular (de esta forma quedan agrupadas, constituyendo asociaciones estables). Así se inicia, porejemplo, la formación de tejidos en los embriones.
 
La moléculas glucídicas actúan como
antígenos
sobre los que se fijan los anticuerpos específicos que determinan el comportamiento inmunológico de las células. De esta manera, las moléculas que actúan como antígenos responsables delos
grupos sanguíneos AB0
son glucolípidos presentes en las membranas de los eritrocitos. El grupo A, por ejemplo, está determinado por la N-acetilgalactosamina, y el B, por la galactosa. Los glúcidos son responsables, además, de los llamados
antígenos de tolerancia tisular o de histocompatibilidad 
. La función de estas moléculas hace que, por ejemplo, en un trasplanté las células trasplantadas no sean reconocidas como propias y sean rechazadas por las receptoras.
 
El glucocálix actúa también como
receptor
de moléculas (hormonas), agentes patógenos (virus, bacterias) o sus toxinas.
 
También interviene en la
regulación del crecimiento y en la reproducción celular
. Las células cancerosas tienen un glucocálix diferente al de las células normales correspondientes, y no están sometidas a la inhibición por contacto.
•Los polisacáridos de la superficie celular tienen también una importante función en el
proceso de la fecundación
. Así, en los huevos de erizos o estrellas de mar (como en los de otros animales), la glucoproteína que rodea al óvulo es la responsable de la reacción acrosomal, mediante la cual un espermatozoide fecunda al óvu
Fosfolípidos
Los fosfolípidos, un tipo especial de lípido, son los componentes primarios de las membranas celulares. En su estructura química podemos observar una molécula de glicerol, dos ácidos grasos, un grupo fosfato y una base nitrogenada. Su fórmula general se representa de la siguiente manera:

En las membranas celulares los fosfolípidos juegan un papel muy importante, ya que controlan la transferencia de sustancias hacia el interior o exterior de la célula.

Los fosfolípidos son anfipáticos, esto es que son simultaneamente hidrofílicos e hidrofóbicos. En efecto, una parte de su estructura es soluble en agua (hidrofílica), mientras que la otra, es soluble en lípidos (hidrofóbica).

Es en la parte hidrofílica donde se encuentran el grupo fosfato y el aminoalcohol o base nitrogenada.

Esta característica estructural hace posible que los fosfolípidos participen en el intercambio de sustancias entre un sistema acuoso y un sistema lipídico, separando y aislando a los dos sistemas, a la vez que los mantiene juntos.

En medio acuoso las colas de los fosfolípidos (constituidas por la molécula de gricerol y los ácidos grasos) tienden a disponerse en manera tal de formar un ambiente local hidrofóbico.

Al entrar en contaco con el agua, las moléculas de fosfolípidos se organizan formando micelas o bicapas que son grupos macromoleculares con gran cantidad de lípidos. En estas estructuras las cadenas hidrofóbicas de ácidos grasos se alinean unas con otras, interactuando entre ellas y dejando sus extremos  hidrofílicos en contacto con el agua.

domingo, 3 de mayo de 2015

Metabolismo celular

Metabolismo celular

El metabolismo tiene principalmente dos finalidades:

·Obtener energía química utilizable por la célula, que se almacena en forma de ATP (adenosín trifostato). Esta energía se obtiene por degradación de los nutrientes que se toman directamente del exterior o bien por degradación de otros compuestos que se han fabricado con esos nutrientes y que se almacenan como reserva.
·Fabricar sus propios compuestos a partir de los nutrientes, que serán utilizados para crear  sus estructuras o para almacenarlos como reserva.

Al producirse en las células de un organismo, se dice que existe un metabolismo celular permanente en todos los seres vivos, y que en ellos se produce una continua reacción química.
anabolismo y catabolismo
El catabolismo (fase destructiva)

Su función es reducir, es decir de una sustancia o molécula compleja hacer una más simple.

Catabolismo es, entonces, el conjunto de reacciones metabólicas mediante las cuales las moléculas orgánicas más o menos complejas (glúcidos, lípidos), que proceden del medio externo o de reservas internas, se rompen o degradan total o parcialmente transformándose en otras moléculas más sencillas (CO2, H2O, ácido láctico, amoniaco, etcétera) y liberándose energía en mayor o menor cantidad que se almacena en forma de ATP (adenosín trifosfato). Esta energía será utilizada por la célula para realizar sus actividades vitales (transporte activo, contracción muscular, síntesis de moléculas).

El anabolismo (fase constructiva)

Reacción química para que se forme una sustancia más compleja a partir otras más simples.

Anabolismo, entonces es el conjunto de reacciones metabólicas mediante las cuales a partir de compuestos sencillos (inorgánicos u orgánicos) se sintetizan moléculas más complejas. Mediante estas reacciones se crean nuevos enlaces por lo que se requiere un aporte de energía que provendrá del ATP.

Las moléculas sintetizadas son usadas por las células para formar sus componentes celulares y así poder crecer y renovarse o serán almacenadas como reserva para su posterior utilización como fuente de energía.
Niveles de organización biológica
° Átomos: es el siguiente nivel de organización. Es un átomo de oxígeno, de hierro, de cualquier elemento químico. A nivel biológico podemos llamar a los átomos como bioelementos y clasificarlos según su función:
Si cumplen una función estructural son bioelementos primarios: son el carbono, el fósforo,nitrógeno, hidrógeno, oxígeno y azufre que forman por ejemplo, las membranas de las células, las proteínas, los ácidos grasos, los lípidos…
Si cumplen una función estructural y catalítica son bioelementos secundarios: calcio, sodio, potasio, magnesio, cloro, iodo… son fundamentales para el funcionamiento de la célula pero no forman parte estructural de las mismas.
Si cumplen sólo función catalítica son oligoelementos o elementos vestigiales porque sus cantidades en el organismo son muy escasas como por ejemplo pueden ser el Cobalto, el Zinc, que intervienen en el funcionamiento de ciertas enzimas.
° Moléculas: las moléculas consisten en la unión de diversos átomos diferentes para fomar, por ejemplo, oxígeno en estado gaseoso (O2), dióxido de carbono, o simplemente carbohidratos, proteínas, lípidos… Las moléculas pueden ser orgánicas (glucosa, lípidos, grasas) o inorgánicas (agua, sales minerales, gases, óxidos…) La bioquímica se encarga del estudio de este nivel de organización, siendo una de las disciplinas más punteras y que mayor recursos de investigación obtiene en investigación y universidades dentro de las áreas de este artículo.
° Celular: las moléculas se agrupan en unidades celulares con vida propia y capacidad de autorreplicación. Las células puede ser eucariotas o procariotas dependiendo de su estructura. También pueden formar organismos de vida independiente como son los protozoos o las amebas.
° Tisular: las células se organizan en tejidos: epitelial, adiposo, nervioso, muscular… En plantas hablaríamos del parénquima, por ejemplo. La histología es la ciencia que se encarga del estudio de los tejidos.
° Sistémico o de aparatos: los órganos se estructuran en aparatos o sistemas más complejos que llevan a cabo funciones más amplias. Tenemos el ejemplo de los sistemas digestivos, respiratorios, circulatorios, nerviosos…
° Organismo: nivel de organización superior en el cual las células, tejidos, órganos y aparatos de funcionamiento forman una organización superior como seres vivos: animales, plantas, insectos,…
° Sistemas: Son conjuntos de órganos, formados por los mismos tipos de tejidos, que pueden realizar actos independientes. Se distinguen 6 sistemas diferentes que son:

° Sistema nervioso
° Sistema muscular
° Sistema óseo
° Sistema endocrino u hormonal
° Sistema tegumentario (piel) y
° Sistema linfático

Modelo Llave-Cerradura y modelo de encaje inducid
° Modelo de llave-cerradura: como lo indica su nombre, este modelo plantea una analogía entre la interacción de las enzimas con su sustrato y el funcionamiento de una llave que se complementa específicamente con una única chapa o cerradura. Si bien es cierto que este modelo da cuenta de la relación específica entre una enzima y su sustrato, sugiere una interacción ''rígida'' entre ellos, condición que algunos científicos actualmente cuestionan.
° Modelo de encaje-inducido: este modelo sugiere una interacción más flexible y plástica entre la enzima y su sustrato. La idea es que a medida que el sustrato se acerca a la enzima, induce cambios de forma en ella, de manera de ‘’acomodarse’’ y así establecer la relación 
específica que caracteriza a esta interacción

martes, 28 de abril de 2015

Modelo mecano cuántico

Modelo científico se denomina a una idea o teoría sobre la naturaleza de un fenómeno para explicar hechos experimentales. El modelo mecano-cántico es la explicación actual sobre el comportamiento del átomo. Esta se basa en la teoría cuántica, que es la teoría física basada en la utilización del concepto de unidad cuántica para describir las propiedades dinámicas de las partículas subatómicas y las interacciones entre la materia y la radiación.
 
Línea del tiempo de la Teoría Cuántica
1900
Max Planck sugirió que la radiación está cuantificada (aparece en cantidades discretas.)
1905
Albert Einstein, uno de los pocos científicos que tomó en serio las ideas de Planck; propuso un cuanto de luz (el fotón) que se comporta como una partícula. Las otras teorías de Einstein explicaron la equivalencia entre la masa y la energía, la dualidad partícula-onda de los fotones, el principio de equivalencia, y especialmente la relatividad.

1909
Hans Geiger y Ernest Marsden, bajo la supervisión de Ernest Rutherford, dispersaron partículas alfa mediante una hoja de oro y observaron grandes ángulos de dispersión; sugirieron que los átomos tienen un núcleo pequeño y denso, cargado positivamente.
1911
Ernest Rutherford infirió la existencia del núcleo como resultado de la dispersión de las partículas alfa en el experimento realizado por Hans Geiger y Ernest Marsden.
1912
Albert Einstein explicó la curvatura del espacio-tiempo.
1913
Niels Bohr tuvo éxito al construir una teoría de la estructura atómica, basándose en ideas cuánticas.
1919
Ernest Rutherford encontró la primer evidencia de un protón.
1921
James Chadwick y E.S. Bieler concluyeron que alguna fuerzas fuerte tiene que mantener unido el núcleo.
1923
Arthur Compton descubrió la naturaleza cuántica (partícula) de los rayos x, confirmando de este modo al fotón como partícula.
1924
Louis de Broglie propuso que la materia tiene propiedades ondulatorias.
1925 (Jan)
Wolfgang Pauli formuló el principio de exclusión para los electrones de un átomo.
1925 (April)
Walther Bothe y Hans Geiger demostraron que la energía y la masa se conservan en los procesos atómicos.
1926
Erwin Schroedinger desarrolló la mecánica ondulatoria, que describe el comportamiento de sistemas cuánticos constituidos por bosones. Max Born le dió una interpretación probabilística a la mecánica cuántica. G.N. Lewis propuso el nombre de "fotón" para el cuanto de luz.
1927
Se observó que ciertos materiales emiten electrones (decaimiento beta). Dado que ambos, el átomo y el núcleo, tienen niveles discretos de energía, es difícil entender por qué los electrones producidos en esta transición, pueden tener un espectro continuo (vea 1930 para tener una respuesta.)
1927
Werner Heisenberg formuló el principio de incerteza: cuanto más sabe ud. sobre la energía de una partícula, menos sabrá sobre el tiempo en el que tiene esa energía (y vice versa.) La misma incertidumbre se aplica al ímpetu y la coordenada.
1928
Paul Dirac combinó la mecánica cuántica y la relatividad especial para describir al electrón
1930
La mecánica cuántica y la relatividad especial están bien establecidas. Hay tres partículas fundamentales: protones, electrones, y fotones. Max Born, después de tomar conocimiento de la ecuación de Dirac, dijo, "La física, como la conocemos, será obsoleta en seis meses."
1930
Wolfgang Pauli sugirió el neutrino para explicar el espectro continuo de los electrones en el decaimiento beta.
1931
Paul Dirac comprendió que las partículas cargadas positivamente requeridas por su ecuación eran nuevos objetos (el los llamó "positrones"). Son exactamente como electrones, pero cargados positivamente. Este es el primer ejemplo de antipartículas.
1931
James Chadwick descubrió el neutrón. Los mecanismos de las uniones nucleares y los decaimientos se convirtieron en problemas principales.
1933-34
Enrico Fermi desarrolló una teoría del decaimiento beta, que introdujo las interacciones débiles. Ésta es la primera teoría que usa explícitamente los neutrinos y los cambios de sabor de las partículas.
1933-34
Hideki Yukawa combinó la relatividad y la teoría cuántica, para describir las interacciones nucleares sobre la base del intercambio, entre protones y neutrones, de nuevas partículas (mesones llamados "piones"). A partir del tamaño del núcleo, Yukawa concluyó que la masa de las supuestas partículas (mesones) es superior a la masa de 200 electrones. Éste es el comienzo de la teoría mesónica de las fuerzas nucleares.
1937
Una partícula con una masa de 200 electrones es descubierta en los rayos cósmicos. Mientras que al principio, los físicos pensaron que era el pión de Yukawa, se descubrió más tarde que era un muón.
1938
E.C.G. Stuckelberg observó que los protones y los neutrones no decaen hacia ninguna combinación de electrones, neutrinos, muones, o sus antipartículas. La estabilidad del protón no puede ser explicada en términos de conservación de energía o de carga; propuso la conservación independiente del número de partículas pesadas.
1941
C. Moller y Abraham Pais introdujeron el termino "nucleón" como un término genérico para los protones y los neutrones.
1946-47
Los físicos comprendieron que la partícula del rayo cósmico, que se pensaba que era el mesón de Yukawa, es en cambio un "muón", la primer partícula en ser encontrada, de las de la segunda generación de partículas materiales. Este descubrimiento fue completamente inesperado -- I.I. Rabi comentó " quién ordenó ésto?" El término "leptón" se introdujo para describir objetos que no interactuan demasiado fuerte (los electrones y los muones son leptones).
1947
En los rayos cósmicos es encontrado un mesón, que interactúa fuertemente, y se determina que es un pión.
1947
Los físicos desarrollan procedimientos para calcular las propiedades electromagnéticas de los electrones, positrones, y fotones. Introducción de los diagramas de Feynman.
1948
El sincro-ciclotrón de Berkeley produce los primeros piones artificiales.
1949
Enrico Fermi y C.N. Yang sugieren que un pión es una estructura compuesta por un nucleón y un antinucleón. Esta idea de partículas compuestas es completamente revolucionaria.
1949
Descubrimiento de K+ vía sus decaimientos.
1950
Es descubierto el pión neutro.
1951
Se descubren dos nuevos tipos de partículas en los rayos cósmicos. Son descubiertas mientras se observan unas trazas en forma de V;se las descubre al reconstruir los objetos eléctricamente neutros, que tenían que haber decaído, para producir los dos objetos cargados, que dejaron las trazas. Las partículas fueron llamadas la lambda0 y la K0.
1952
Descubrimiento de la partícula delta: eran cuatro partículas similares (delta++, delta+, delta0, y delta-.)
1952
Donald Glaser inventó la cámara burbuja. Comienza a operar el Cosmotrón de Brookhaven , un acelerador de 1.3 GeV.
1953
El comienzo de la "explosión del número de partículas"-- una verdadera proliferación de partículas.
1953 - 57
La dispersión de electrones por un núcleo, revela una distribución de la densidad de carga dentro de los protones, y neutrones. La descripción de esta estructura electromagnética de los protones y neutrones, sugiere cierta estructura interna en estos objetos; a pesar de eso se los sigue considerando como partículas fundamentales.
1954
C.N. Yang y Robert Mills desarrollan un nuevo tipo de teoría, llamada "teorías de calibre (o de Gauge)." Aunque no fueron aceptadas en ese momento, este tipo de teorías constituyen actualmente la base del Modelo Standard.
1957
Julian Schwinger escribe un trabajo proponiendo la unificación de las interacciones débiles y electromagnéticas.
1957-59
Julian Schwinger, Sidney Bludman, y Sheldon Glashow, en trabajos separados, sugieren que todas las interacciones débiles son mediadas por bosones pesados cargados, más tarde llamados W+ y W-. Realmente, Yukawa fue el primero que discutió el intercambio de bosones veinte años antes, pero él había propusesto al pión como mediador de las fuerzas débiles.
1961
A medida que el número de partículas conocidas se incrementaba, el grupo SU(3), un esquema de clasificación matemático para organizar las partículas, ayudó a los físicos a reconocer patrones en los tipos de partículas.
1962
Los experimentos verificaron que existen dos tipos distintos de neutrinos (neutrinos electrón y neutrinos muón). Ésto ya había sido inferido, por consideraciones teóricas.

 

Dualidad onda-partícula.
Teoría de De Broglie
En el mundo macroscópico resulta muy evidente la diferencia entre una partícula y una onda; dentro de los dominios de la mecánica cuántica, las cosas son diferentes. Un conjunto de partículas, como un chorro de electrones moviéndose a una determinada velocidad puede comportarse según todas las propiedades y atributos de una onda, es decir: puede reflejarse, refractarse y difractarse.

Por otro lado, un rayo de luz puede, en determinadas circunstancias, comportarse como un chorro de partículas (fotones)con una cantidad de movimiento bien definida. Asi, al incidir un rayo de luz sobre la superficie lisa de un metal se desprenden electrones de éste (efecto fotoeléctrico). La energía de los electrones arrancados al metal depende de la frecuencia de la luz incidente y de la propia naturaleza del metal.

Según la hipótesis de De Broglie, cada partícula en movimiento lleva asociada una onda, de manera que la dualidad onda-partícula puede enunciarse de la siguiente forma: una partícula de masa m que se mueva a una velocidad v puede, en condiciones experimentales adecuadas, presentarse y comportarse como una onda de longitud de onda, λ. La relación entre estas magnitudes fue establecida por el físico francés Louis de Broglie en 1924.
 

martes, 14 de abril de 2015

¿Qué es la Mecánica Cuántica?

La Mecánica Cuántica y la teoría de la relatividad son las dos grandes teorías de la Física del siglo XX. Ambas surgieron a principios del siglo pasado para explicar fenómenos que contradecían las predicciones de la Física Clásica, nacida con Isaac Newton en el siglo XVII  El nombre Mecánica Cuántica fue utilizado por primera vez por Max Born en 1924 en un paper que llevaba como título:
Sobre Mecánica Cuántica (Zur Quantummechanik).

La Mecánica Cuántica brinda el marco general para describir sistemas físicos en todas las escalas, desde las partículas elementales (tales como electrones y quarks), núcleos, átomos y moléculas hasta la estructura estelar. Su campo de aplicación es universal, pero es en sistemas de dimensiones muy pequeñas donde sus predicciones difieren sustancialmente de aquellas proporcionadas por la física clásica. Recordemos aquí que la dimensión de un átomo es muy pequeña: Típicamente una diez millonésima de milímetro! (0,0000001 mm, equivalente a un Angstrom). Y la de un núcleo atómico es aún cien mil veces menor (0,000000000001 mm, equivalente a un Fermi).
Según expresa Richard Feynman
Richard Feynman
 en su texto de Mecánica Cuántica, la relación entre la física clásica y la cuántica es la misma que hay entre un objeto y su sombra. La sombra nos permite conocer de manera aproximada la forma del objeto, pero no es posible reconstruir de forma directa el objeto original a partir de su sombra. Análogamente, en la mecánica clásica existen sombras de las leyes de la mecánica cuántica que son las que verdaderamente se encuentran en la base de todo. La mecánica clásica es solo una aproximación.

La mecánica cuántica resulta así imprescindible para explicar satisfactoriamente todas las propiedades de la materia. Es la base de los desarrollos tecnológicos de mayor éxito de la segunda mitad del siglo XX, constituyendo el fundamento de la química moderna y de la microelectrónica actual (incluyendo las computadoras).
La mecánica cuántica (también llamada física cuántica) nos revela aspectos muy sorprendentes de la naturaleza, aún más lejanos a nuestra intuición que los predichos por la teoría de la relatividad. Esto es natural pues nuestra intuición se desarrolló en el mundo macroscópico cotidiano (donde las distancias son mucho mayores que las atómicas y las velocidades mucho menores que la velocidad de la luz), el cual es correctamente descripto por la física clásica. En sistemas macroscópicos las predicciones cuánticas coinciden normalmente con las de la física clásica.

Porque en esta teoría, las magnitudes físicas tales como la energía y otras cantidades importantes están normalmente cuantizadas: No pueden tomar cualquier valor, sino sólo ciertos valores posibles, que pueden ser determinados en experimentos o mediante complejas (¡pero elegantes!) ecuaciones matemáticas.¿Porqué se llama Mecánica Cuántica?

Veamos un ejemplo: Mientras que una rueda de bicicleta puede en principio girar alrededor de su eje con cualquier velocidad de rotación, y por lo tanto tener cualquier energía (energía cinética de rotación), una molécula rotante (rotador cuántico) puede tener sólo determinadas energías de rotación. Así, mientras la energía de la rueda de bicicleta puede variarse en forma continua incrementando su velocidad, la energía de rotación de una molécula sólo puede incrementarse de a saltos.
Plotq4.png
Y más sorprendente aún resultan los valores que puede tomar la energía. Por ejemplo, para una molécula diatómica como la del cloruro de hidrógeno (HCl, que en solución acuosa se denomina ácido clorhídrico o comunmente ácido muriático) los valores son
0, 2, 6, 12, 20, etc.,
en unidades de energía apropiadas. Es decir, no son valores al azar sino ciertos múltiplos enteros de una determinada unidad de energía. Parece mágico, ¿no? Estos valores son los predichos por la teoría cuántica y coinciden, por supuesto, con los medidos experimentalmente. La cuantización de la energía explica en particular las señales de luz emitida por átomos (espectro de emisión).
Para los interesados en conocer más detalles, las energías del rotador cuántico son de la forma E L(L+1) ...

Si esto te pareció sorprendente, es sólo el comienzo de las grandes sorpresas que nos depara la mecánica cuántica (Einstein se refería a veces a la misma como "cálculo de magia negra".)

Algunas fechas importantes

Las ideas que posibilitaron el desarrollo de la Teoría nacieron hacia fines del siglo XIX con Planck.
Los aportes más notables fueron:
1900: Postulado de Planck de la radiación del cuerpo negro.
1905: Einstein da la explicación del efecto fotoeléctrico. 
1913: Bohr introduce el llamado Modelo de Bohr del átomo de hidrógeno. 
Planck30.jpg

Planck
Einstein30.jpg

Einstein
Bohr30.jpg

Bohr
1924: de Broglie postula que la materia se comporta también como una onda 

1925: Pauli Postula el llamado Principio de Exclusión 
1926: Schrödinger introduce la Ecuación de onda 
Debroglie30.jpg

De Broglie
Pauli.jpg

Pauli
Schrodinger30.jpg

Schrodinger
1926: Born introduce el concepto de densidad de probabidad asociado a la función de onda 
1927: Heisenberg introduce el Principio de Incertidumbre 
1928: Dirac introduce la ecuación de onda relativista de la Mecánica Cuántica 

Born20.jpg

Born
Heisenberg1.jpg

Heisenberg
Dirac3.jpg

Dirac
La formulación general de la Teoría Cuántica la realizan Heisenberg-Schrodinger y Dirac entre 1925 y 1926 dando un Marco general para describir sistemas físicos, desde partículas elementales, núcleos y átomos.... y hasta estructura estelar. La teoría implica limitaciones a la precisión con que se puede caracterizar el estado de un sistema, pero realiza predicciones muy precisas sobre los valores medibles de cantidades físicas (energía, spin, etc.) asignando valores discretos (en lugar de continuos)

Principio de Incertidumbre

Heisenberg
Un aspecto fundamental de la Mecánica Cuántica es el Principio de Incertidumbre, debido a Werner Heisenberg. Dicho principio dice que a mayor precisión sobre la medida de la posición de una partícula, menor precisión habrá sobre su velocidad y viceversa. Esto implica que en mecánica cuántica no podemos hablar ni siquiera de trayectoria (si sabemos donde está, no sabemos para donde se mueve y viceversa). Por supuesto que en estas consideraciones interviene nuevamente la constante de Planck h, y por ello estos efectos se vuelven insignificantes en el mundo macroscópico cotidiano. Más detalles interesantes sobre el principio de incertidumbre pueden encontrarse aquí.

Efecto túnel

En nuestro universo cotidiano gobernado por las leyes de la Física Clásica, sabemos que es imposible que al arrojar una pelota contra una pared, la pelota pase a través de ella. Sin embargo, en la mecánica cuántica un objeto sí puede atravesar una pared (que en el mundo microscópico corresponde a una barrera de potencial), con una cierta probabilidad. Este fenómeno, que es uno de los más interesantes y curiosos del mundo cuántico, se conoce como efecto túnel y es la base del funcionamiento de los circuitos integrados que se usan para construir computadoras. Es también la base de la fisión nuclear. Otra aplicación importantísima es el microscopio de efecto túnel 

¿Ondas o partículas? ¡Ambas!

En la física clásica, las ondas son ondas y las partículas son partículas. Sin embargo, esto no es así en la mecánica cuántica!, donde las ondas electromagnéticas (que de acuerdo a su frecuencia se manifiestan como luz, rayos infrarrojos, ondas de radio, TV, rayos ultravioleta, rayos X, rayos Gamma, etc.) pueden exhibir propiedades de partícula (fotones), mientras que las partículas pueden también exhibir propiedades de onda!
Puede decirse que tanto la luz y la materia existen en la mecánica cuántica como partículas, y lo que se comporta como onda es la probabilidad de encontrar dichas partículas en algún lugar. Véase también .

El principio de superposición

En nuestro mundo cotidiano (que de aquí en más llamaremos el mundo clásico), uno puede estar vivo o muerto, es decir, en un estado vivo, o en un estado muerto, pero claramente no puede estar en una superposición de ambos estados, es decir, vivo y muerto al mismo tiempo.
Sin embargo, un sistema cuántico sí puede estar en una superposición de estados. El principio de superposición, uno de los principios fundamentales de la Mecánica Cuántica, establece que si un sistema cuántico puede estar en un estado A (por ejemplo vivo) o en un estado B (muerto), puede también estar en una superposición de ambos!
¿Qué significa esto?: Supongamos un sistema cuántico que puede tener energías A y B. Si el sistema está en el estado de energía A, cuando medimos su energía se obtiene el valor A. Y si está en el estado de energía B, al medir obtenemos la energía B. Pero cuando está en una superposición de ambos estados, cuando medimos se puede obtener tanto la energía A como la B, con ciertas probabilidades, las cuales quedan determinadas por el tipo de superposición. Es importante destacar que no se obtiene un valor intermedio entre A y B.
No es sólo un problema de probabilidades! En este punto, algunos lectores pensaran que la situación es confusa pero controlable. Es decir, podrían pensar "Lo que sucede es que cuando el sistema cuántico está en una superposición de estados, tiene una cierta probabilidad de estar en el estado con energía A, y otra de estar en el estado con energía B. Cuando se mide, se sabe entonces en cuál de los dos estados estaba."
Pero ahora la mecánica cuántica nos sorprende nuevamente: No es posible suponer que el sistema YA ESTABA en el estado A o en el estado B, sino que, para decirlo en forma breve, esto se decide en el momento de la medición, como consecuencia de la interacción entre nuestro aparato de medida y el sistema cuántico que es medido. Es decir, no es posible interpretar la superposición cuántica desde un punto de vista probabilístico tradicional. No existe un modelo clásico local puramente probabilístico que pueda predecir los resultados cuánticos. Este aspecto se ha investigado profundamente en los últimos años y las predicciones de la mecánica cuántica han salido siempre victoriosas en los experimentos! (Proximamente se darán en este sitio detalles sobre las desigualdades de Bell y la muy famosa paradoja EPR).
Entre otras cosas, el principio de superposición permite el fenómeno del entrelazamiento cuántico, el cual a su vez posibilita la teleportación cuántica. Y como si fuera poco, la superposición de estados hace factible una forma completamente nueva de computación, denominada computación cuántica, todavía en fase experimental y actualmente objeto de intensa investigación, la cual está basada en qubits (quantum bits) en lugar de bits, y permitiría reducciones extraordinarias en el tiempo de cómputo de ciertos cálculos.
¡Y hay más sorpresas!

Algunos desarrollos conceptuales notables de las últimas decadas:
1981: W. Zurek indtroduce los conceptos de decoherencia y estados puntero, proporcionando una teoría consistente de la medida en la mecánica cuántica
1982: W. Wooters y W. Zurek demuestran la imposibilidad de clonación exacta en la mecánica cuántica y sus profundas implicancias
1984: C.H. Bennett y G. Brassard introducen el concepto de criptografía cuántica (distribución cuántica de claves)
1985: David Deutsch introduce el concepto de computadora cuántica
1989: R.F. Werner introduce el concepto de entrelazamiento cuántico para estados cuánticos generales
1991: A. Ekert introduce la criptografía cuántica basada en entrelazamiento
1993: C.H. Bennett, G. Brassard, W. Wootters y otros introducen la teleportación cuántica, basada en el enrtelazamiento cuántico
1994: P. Shor demuestra que una computadora cuántica puede resolver el problema de la factorización en forma mucho más eficiente que uno computadora clásica, transformando el problema de duro a factible
1996: L. Grover demuestra que una computadora cuántica puede resolver el problema de búsqueda de manera más eficiente que una computadora clásica
2001: W. Zurek introduce el concepto de discordancia cuántica, que distingue correlaciones cuánticas no equivalentes al entrelazamiento
2008: C. Caves y otros demuestran que la discordancia cuántica juega un rol central en la computación cuántica basada en estados no puros

domingo, 12 de abril de 2015

Las moléculas que forman la materia viva

Las moléculas que forman la materia viva

Las moléculas de los seres vivos son la materia prima de la vida. Hace dos siglos, todavía se pensaba que el ser vivos no podía estudiarse igual que el resto de la materia (con las mismas leyes) porque se pensaba que poseíamos una fuerza vital, algo único. Esta idea llevo a estudiar a los seres vivos cada vez más profundamente. Cada vez se estudiaba más y más y sin embargo no se encontraba esa fuerza vital, sin embargo con estos estudios empezaron a conocerse más cosas. Hoy día sabemos que podemos estudiar los seres vivos en términos de composición química, pero esto nos dirá poco, ya que hay que intentar comprender el programa genético que nos explicará y dirigirá todas las reacciones químicas.


Biomoléculas
Las biomoléculas son las moléculas constituyentes de los seres vivos. Los seis elementos químicos o bioelementos más abundantes en los seres vivos son el carbono, hidrógeno, oxígeno, nitrógeno, fósforo y azufre (C,H,O,N,P,S) representando alrededor del 99 % de la masa de la mayoría de las células, con ellos se crean todo tipos de sustancias o biomoléculas (proteínas, aminoácidos, neurotransmisores).1 Estos seis elementos son los principales componentes de las biomoléculas debido a que:

Permiten la formación de enlaces covalentes entre ellos, compartiendo electrones, debido a su pequeña diferencia de electronegatividad. Estos enlaces son muy estables, la fuerza de enlace es directamente proporcional a las masas de los átomos unidos.
Permiten a los átomos de carbono la posibilidad de formar esqueletos tridimensionales –C-C-C- para formar compuestos con número variable de carbonos.
Permiten la formación de enlaces múltiples (dobles y triples) entre C y C; C y O; C y N. Así como estructuras lineales, ramificadas, cíclicas, heterocíclicas, etc.
Permiten la posibilidad de que con pocos elementos se den una enorme variedad de grupos funcionales (alcoholes, aldehídos, cetonas, ácidos, aminas, etc.) con propiedades químicas y físicas diferentes.
Biomoléculas inorgánicas
La materia viva está constituida por unos 70 elementos. Estos elementos se llaman bioelementos o elementos biogénicos.

Propiedades por las que el C, H, O, N, P y S componen los bioelementos mayoritarios (bioelementos que se encuentran en mayor proporción):

Tienen capas electrónicas externas incompletas y pueden formar enlaces covalentes y dar lugar a las biomoléculas que constituirán las estructuras biológicas y llevarán a cabo las funciones vitales.

Poseen un nº atómico bajo, por lo que los electrones compartidos en la formación de los enlaces se hallan próximos al núcleo y las moléculas originadas son estables.

Como el O y el N son electronegativos, algunas biomoléculas son polares y por ello solubles en agua.

Pueden incorporarse a los seres vivos desde el medio externo (CO2 , H2O, nitratos)
Biomoléculas orgánicas

Todas las biomoléculas orgánicas son compuestos de carbono. Los enlaces químicos fundamentales se realizan entre átomos de carbono o entre estos y átomos de hidrógeno formando una estructura base hidrocarbonada.

Además, los átomos de carbono son capaces de unirse con cierta facilidad al oxígeno, nitrógeno , azufre y fósforo, lo que produce el aumento de la complejidad de las moléculas y la aparición de grupos funcionales, que son grupos de átomos que confieren propiedades físicoquimicas concretas y específicas a las moléculas hidrocarbonadas que las presentan.

Los grupos funcionales más importantes son los siguientes: carboxilo, carbonilo, hidroxilo, éster y amino.

Estos grupos funcionales sirven para clasificar a las biomoléculas orgánicas en alcoholes, cetonas, aminas, ácidos etc.
Polimerización
Las reacciones de polimerización son el conjunto de reacciones químicas en las cuales un monómero iniciador o endurecedor activa a otro monómero comenzando una reacción en cadena la cual forma el polímero final.

Pensemos en la mecha de un explosivo, cuando acercamos una fuente de calor como una cerilla o un mechero, este reacciona rápidamente quemándose a lo largo de toda la mecha, en este ejemplo el mechero o cerilla sería el monómero iniciador y la mecha quemada sería el polímero final que se obtendría.
Las reacciones de polimerización se clasifican en:

°Polimerización Radical

°Polimerización Iónica:

°Aniónica

°Catiónica