viernes, 31 de julio de 2009

Por una buena causa … de la causa


En el Otto Neurath y en Frustración voluntaria ha salido a debate el concepto de causa. He dejado en ambos blogs unos comentarios. Voy a escribir aquí con un poco más de orden mis ideas al respecto.

Por causa entendemos muchas cosas. Aristóteles pone el ejemplo de una escultura: si se trata de una escultura del dios Zeus hecha de bronce por un escultor con la finalidad de embellecer la ciudad, la causa material es el bronce, la causa formal el ser el dios Zeus, la causa eficiente el escultor, y la causa final el motivo de su existencia: embellecer la ciudad.

En esta (como en cualquier otra) clasificación, podemos buscar ejemplos en los que no nos quedará claro de qué causa estamos hablando. ¿Hay causa del bronce? ¿Es esta también causa de la escultura? ¿Qué clase de causa formal puede ser el dios Zeus? ¿Una idea es una causa formal? ¿La idea de Zeus de quién? ¿del escultor? ¿del que la comisionó? ¿Por qué la causa eficiente es el escultor? ¿la madre del escultor no tiene parte de culpa? ¿y qué hay del que paga la estatua? ¿Sólo hay un motivo por el que exista la estatua? El pueblo la demanda y por eso se hace, el escultor quiere fama y por eso también se hace, el político quiere el favor de los ciudadanos y esa es otro motivo. Yo no tengo nada claro lo que es la causa, aunque tengo claro que me incluyo entre los que hablan de causas constantemente.

Por una parte buscamos causas para todo. Por otra parte sabemos que no podemos buscar eternamente la causa de la causa de la causa…

El siguiente planteamiento es el que considero correcto. Queremos deducir lógicamente las causas de las cosas, pero el concepto de causa no está formalmente definido. Un modelo formal consta de unos elementos primitivos, con los cuales se derivan los demás. Por ejemplo, en la mecánica de Newton, las tres leyes de la mecánica más la ley de gravitación permiten deducir todos lo movimientos de un sistema de masas dado si se conocen las condiciones iniciales (posición y velocidad). Así, todos los fenómenos del movimiento de este sistema están causados por los elementos primitivos. Un cambio en los primitivos inducirá unos cambios en los movimientos, así que la causa de estos cambios será el cambio en los primitivos.

Los modelos económicos incluyen entre los elementos primitivos las preferencias de los individuos y su capacidad de elegir entre sus variables de decisión. Cambios en las preferencias podrán ser definidas como causas eficientes, si se desea. Cambios en las acciones podrán ser definidas como causas finales, si también se desea.

Todo esto se puede definir en el modelo, en donde podemos controlar todas las variables y dar sentido a la noción de causa. En la realidad podremos interpretar la misma relación causal que en el modelo en la medida que el modelo se aplique a la realidad o, mejor dicho, a una parte de ella. Porque todos los modelos que tenemos se aplican a una parte de la realidad. El único que intenta aplicarse a toda la realidad es la física de partículas, que nos habla de todo lo que existe, las partículas elementales. Pero sigue siendo el modelo. De dónde salen las leyes del modelo, cuál es su causa, es algo que nos lleva a la regresión de siempre. En cada modelo, la respuesta nos lleva hasta sus primitivos. Buscar las causas de las leyes de un modelo nos lleva a otro modelo y, en él, a otros primitivos.

En los modelos, con elementos primitivos, podemos hablar de causas. En la realidad, si prescindimos de primitivos, no podremos hacerlo formalmente.

La única respuesta a la pregunta de por qué hay algo en lugar de nada (unas leyes y no otras) es: hay algo en lugar de nada. Es decir, el que haya algo es lo que hay.

Hay gente que, llegados a este punto dicen: ¡No! Como todo tiene una causa, este algo debe tenerla también, y eso es dios, ese sí que no tiene causa porque, fíjate bien mi gran argumento: defino a dios como aquello que no tiene causa, que se causa a sí mismo y que causa a todo lo que hay.

¿Así que, como todo tiene causa, para salir del atolladero postulo algo que no tiene causa? Jamás entenderé cómo nadie se deja convencer por esto.

Vemos que todo el mundo, todos mortales que buscamos causas a todo, al final reconocemos que hay algo a lo que no le podemos buscar causa. Esto va también por los que ven en la causa un algo ontológico (qué algo ontológico, no me preguntéis). El concepto de causa se contradice a sí mismo si se lleva al límite. Es decir, si se saca del límite de los modelos formales, de donde nunca debió salir si se quiere razonar lógicamente.

martes, 28 de julio de 2009

Las piezas lego de la naturaleza. La historia más extraña jamás contada. Parte 9.


La función de onda

Pongamos que un cuerpo de un gramo se mueve a 10 metros por segundo hacia la derecha desde un punto cero. Al cabo de un segundo estará a 10 metros y al cabo de dos, a veinte. En general, al cabo de t segundos estará a 10 x t metros (escribamos 10t m). Una vez establecido el punto cero y la dirección en que se mueve el cuerpo, podemos dar cuenta de su velocidad y su posición a través de la siguiente manera de resumir la información:

Velocidad = 10 m/s

Posición = 10t m

Esta podría ser la función de onda (muy simplificada) del cuerpo que examinamos. Las cosas pueden ser más complicadas. Por ejemplo, la velocidad puede cambiar con el tiempo, primero es 20 m/s, luego se acelera a 40 m/s, luego se frena, y así sucesivamente. Puede ser que, tanto la velocidad como la posición, sean aleatorias. Por ejemplo, puede ser que la velocidad sea 10 m/s hacia la derecha, 20 m/s hacia la izquierda o 30 m/s hacia la derecha, con idénticas probabilidades. Esto no quiere decir que la velocidad sea una de esas tres (y no sepamos cuál) todo el rato. Quiere decir que, cada vez que medimos la velocidad, nos dará uno de esos tres valores. Si la medimos 100 veces, por ejemplo, podríamos encontrar que 32 veces es 10 m/s, 35 veces 20 m/s y 33 veces 20 m/s. ¿Y si medimos la posición? Tendríamos también una serie de valores que podríamos detectar, por ejemplo podríamos encontrar al cuerpo a 5, 10 ó 15 metros a la derecha o a 5 ó 10 metros hacia la izquierda.

En general, la función de onda de una partícula subatómica es algo todavía más complicado. Para empezar, no mide directamente nada, es sólo un artefacto matemático que contiene toda la información que se puede extraer acerca de la partícula cuando está en un determinado sistema o estado (un electrón en un orbital atómico, un fotón pasando por una ranura,…). A partir de esa ecuación se puede ir obteniendo una u otra información según unas determinadas reglas:

1. La información se obtiene en forma de probabilidad. Por ejemplo, podemos obtener la probabilidad de que la partícula esté en una región determinada del espacio, o que esté dentro de un rango determinado de velocidades. Para encontrar esta información, hay que trabajar con el cuadrado de la función de onda.

2. Si medimos una variable, la función de onda pasa a tener ese valor para esa variable, y ya no se comporta probabilísticamente para ella. Este es el famoso colapso de la función de onda, que da lugar a la interpretación de Copenhague de la mecánica cuántica.

3. Si queremos medir dos variables, la precisión con que midamos una de ellas es menor cuanto mayor sea la precisión con la que midamos la otra. Esta relación está determinada por una nueva ecuación, que es la que rige el principio de indeterminación de Heisenberg que vimos en la parte 7 de esta historia más extraña jamás contada. En nuestro ejemplo de arriba, quiere decir que, si medimos con precisión la velocidad (p.e., 10 m/s a la dcha.) entonces no sabremos nada de la posición. Si nos conformamos con saber si la velocidad es 20 m/s a la dcha. o 20 m/s a la izda. entonces podremos saber algo más de la posición (por ejemplo, que esté a 10 m a la dcha. o 5 a la izda.)

4. Si tenemos una partícula en dos estados posibles, se puede asociar una función de onda a cada estado, llámense F1 y F2. Si no hacemos ninguna medida para saber en cuál de los dos estados está la partícula, estará en el estado “superpuesto” que tiene asociada la función de onda correspondiente a la suma de las dos anteriores: F1 + F2. Esta es la famosa superposición cuántica que da origen a la paradoja del gato de Schrödinger. Esto tiene una consecuencias extrañas. Si queremos saber la probabilidad de que una variable (velocidad, posición,…) esté en determinado rango sin pretender saber el estado del sistema, deberemos usar (F1 + F2)2 para nuestros cálculos. Sin embargo, si hacemos una medida para conocer el estado y luego queremos calcular la probabilidad de la misma variable que antes deberemos usar (F1)2+ (F2)2, puesto que sabremos que está en el estado descrito por F1 o en el descrito por F2, y en cada caso usaremos el cuadrado de la ecuación para encontrar la probabilidad. Antes de saber en qué estado estará, asignamos la suma para tener en cuenta la incertidumbre antes de hacer la medida. Como todos recordaremos de nuestras matemáticas del álgebra elemental, (F1 + F2)2 es distinto de (F1)2+ (F2)2. Aplicado esto al experimento del electrón que puede pasar por dos ranuras, en el primer caso tendremos el comportamiento como onda y, en el segundo, el comportamiento como partícula.

Dejo los comentarios para otra entrada, que esta ha tenido lo suyo. He intentado contar las cosas como creo que me hubiera gustado que me las explicaran para tener una idea de las piezas lego-cuánticas.

viernes, 24 de julio de 2009

El Consumismo: Algunas Reflexiones


Mi amiga Leticia (es mexicana y nos conocimos hace años en Chicago) me pide que publique unas reflexiones suyas sobre el consumismo. Helas aquí:

Recientemente ha surgido una serie de críticas hacia el consumismo irreflexivo, y casi instintivo, por parte de los consumidores. En efecto, este vocablo ha pasado de ser un término técnico de textos de economía para convertirse en el apelativo que unifica a los habitantes de este planeta y cuyo comportamiento determina las tendencias de crecimiento económico de un país.

En las últimas décadas la economía mundial ha experimentado notables avances en eficiencia productiva, mismos que han llevado a una disminución de precios. Adicionalmente, un sinnúmero de productos se ha puesto al alcance de una gran parte de la población - aun en aquellas zonas remotas y distantes de las áreas de producción-. Los bajos precios, en sí mismos, han estimulado un consumo desenfrenado a lo largo y ancho de nuestro planeta, por lo que no es extraño caer en la trampa de comprar un producto ¨porque está tirado de precio¨ - sin apelar a la necesidad que satisface o al placer que verdaderamente derivamos de su adquisición-.

En una economía, el objetivo final de la producción de bienes y servicios es el consumo. Entre más se ‘aprovechan’ los recursos disponibles más se produce, más se aprende y se innova, y conduce a ¨aumentos¨ en la productividad; crece el empleo, los salarios, el consumo, y el nivel de vida (en el corto plazo) se eleva. El ciclo se repite y agranda una y otra vez. Esto es en esencia lo que ha permitido el “enriquecimiento¨ de las naciones.

Las críticas al consumismo han surgido por sus consecuencias económicas, sociológicas y psicológicas. Tanto ambientalistas como promotores de competencia justa y de derechos humanos insisten sobre la “irrealidad” de los precios que pagamos por muchos productos. Aducen que estos precios no incorporan los verdaderos costos de transformar los recursos naturales en productos finales. Por otro lado, enfatizan que el modo de apropiación de la materia prima, en múltiples instancias, ha llevado a la sobreexplotación, deterioro y futura escasez de los recursos naturales, provocando la alteración de ecosistemas y condiciones medio ambientales. También se insiste en las injustas prácticas de contratación y condiciones de trabajo; así como en los ínfimos niveles salariales y la evasión regulatoria. Hay gran parte de realidad en estas alegaciones, y son más o menos verdaderas dependiendo del tipo de industria o región a que nos refiramos.

Aparte de censurar ciertas prácticas empresariales y productivas, igualmente se critica su contraparte, el consumo irresponsable, aquel que es impulsivo, inmoderado, superfluo y que no mide la consecuencia de sus acciones. Ante la dificultad de controlar el patrón de consumo de cada persona, se invoca a la sensibilidad de los consumidores para que interioricen los efectos ¨adicionales¨ que acarrea su nivel y tipo de consumo. Se advierte de vigilar sobre el papel psicológico, y a veces imperceptible, que juega la mercadotecnia en las decisiones de consumo.

Tomando en cuenta que muchos costos han sido ignorados en el proceso de producir y consumir, es entonces recomendable reevaluar la productividad y el modo de enriquecimiento de las naciones.

Cuestionar la capacidad del sistema económico para retroalimentarse y reproducirse una y otra vez sin que se destruya a sí mismo (concepto de sustentabilidad) es una preocupación muy legítima: los recursos son finitos, y la población continúa multiplicándose y aumentando su consumo per cápita.

¿Dónde esta la punta de la hebra para iniciar el cambio? ¿En la mentalidad de los consumidores? ¿Qué tan plausible es que los consumidores disminuyan su nivel y tipo de consumo de manera significativa? ¿Se puede retroceder en el tiempo y prescindir de muchos de los bienes a los que ahora tenemos acceso?

Es ineludible reparar en el hecho de que todos los consumidores vivimos una dualidad desde el punto de vista económico. Somos consumidores, pero hablando con holgura, todos tenemos un puesto en la cadena productiva, y en este último sentido nuestra motivación es producir más para vender más y generar más ingreso, y esto sólo se logra si los consumidores compran más.

Así, la mayoría de los habitantes de este planeta tenemos un conflicto de intereses a la hora de sopesar los efectos globales de nuestro consumo vs. nuestro bienestar personal. Seguramente, mostraremos cierta conciencia y efectuaremos los cambios que nos cuesten relativamente poco, pero aquéllos que implican un gran costo personal, y que son los que probablemente harían una diferencia importante, serán difíciles de realizar sin algún tipo de ‘apoyo o incentivo externo’.

Entre las campañas para disminuir el consumo, es ampliamente promovido actuar de acuerdo al lema de las tres R’s: Reducir, Reutilizar y Reciclar. De estas, la de mayor apego a nivel personal es Reciclar. Es relativamente bajo el costo de separar la basura y colocarla o llevarla a contenedores que separan material reciclable. Reducir y Reutilizar requieren mayor esfuerzo y sacrificio.

Mucho del consumo actual está en función de búsqueda de comodidad y ahorro de tiempo y esfuerzo, antes que de satisfacer una necesidad imperante. Así, en algunos casos la cuestión es si estamos dispuestos a renunciar a esas cualidades del consumo, y revertir el proceso en el que empresas y consumidores nos hemos embarcado.

Un ejemplo claro del punto anterior es la compra de un coche para una persona (sin niños, sin impedimentos físicos, etc.), o de uno adicional en el caso de una familia. Seguramente la adquisición no obedece a la falta de alternativas para transportarse, sino a la búsqueda de mayor comodidad y ahorro en tiempo de traslado; además, la tranquilidad que supone evitar la coordinación del uso del coche con otro miembro de la familia puede ser muy deseada. La ganancia se refleja en una mayor eficiencia personal en el uso del tiempo.

En países donde el transporte público es limitado, mucho se puede hacer para reducir el uso del coche. Pero no basta con introducir el servicio, se tiene que pensar en alternativas verdaderamente sustitutivas (eficiencia, comodidad, y seguridad) que hagan desistir del uso del automóvil por un medio socialmente más deseable. De otra manera, se puede llegar a situaciones donde las inversiones se realizan en vano: no se logra captar un número significativo de usuarios para costear la inversión y tampoco disminuyen los viajes en coche.

Así como en el caso del transporte público, otros programas de servicios públicos provistos por los gobiernos juegan un papel muy importante en la modificación de hábitos de los consumidores. Uno de los consumos más absurdos que se ha propagado por el mundo es la compra de agua en pequeñas botellas. Las razones que explican este consumo son varias, pero una de ellas sugiere que la gente no confía, y en muchos casos justificadamente, en la potabilidad y calidad del agua que se obtiene del grifo. Un servicio deficiente (o carencia de servicio) ha llevado al desarrollo de una industria ‘innecesaria’ (al menos en las dimensiones que ha alcanzado) la cual genera miles de millones anualmente. Ciertamente, sería más eficiente si la mayor parte del agua se distribuyese a través de la red, ya que se consumirían menos recursos para producirla y se contaminaría mucho menos. Este tipo de sustituciones puede ocurrir a gran escala y llevar a cambios remarcables en el consumo.

En décadas recientes, el sector de artículos desechables se ha desatado. El uso de utensilios de plástico de carácter desechable cumplen una función: limitar trabajo y ahorrar tiempo. Ejemplos como este se repiten una y otra vez en nuestro consumo diario (jeringas, pañales, cámaras fotográficas, bolígrafos, etc). Estamos comprando tiempo y comodidad indirectamente. Si usted como yo hace esfuerzos por reusar las bolsas de la compra de alimentos, estará de acuerdo que esta práctica implica un cierto nivel de esfuerzo de nuestra parte. Tenemos que ser diligentes y no olvidar llevar la bolsa con nosotros al salir de casa, es decir, hay un elemento más a introducir en la logística de la vida diaria.

A nivel agregado, una disminución en el consumo tiene consecuencias graves. La situación económica actual ilustra empíricamente sobre los efectos y reacciones asociadas a una contracción importante del consumo, la cual no ha sido planeada por ningún grupo de consumidores, ambientalistas o administradores públicos. La crisis se desencadenó en el sector de bienes raíces, trascendió a los mercados financieros, y ha conducido a una recesión económica multisectorial de grandes proporciones. El desempleo ha aumentado y con ello ha mermado el consumo, repercutiendo en menores niveles de inversiones y producción.

Un número considerable de familias se han visto afectadas por la drástica disminución de sus ingresos, y resulta muy difícil para los consumidores aceptar cambios a la baja en el poder de compra, aun cuando no se traduzca en un deterioro de su nivel de vida. Las administraciones de los gobiernos se han vuelto muy impopulares a raíz de la crisis; son ampliamente criticadas por su falta de eficacia para sacar a las economías de la recesión y remontarlas de nuevo por la vía del crecimiento económico, i.e., lograr aumentos en la inversión, la producción, y últimamente en el consumo.

Aquí está la paradoja. La experiencia actual nos señala que cambios bruscos en el consumo no son deseables, ni por el agregado de la población, ni por los gobiernos, ni por las empresas. Antes que aceptar perder el empleo, un trabajador está dispuesto a que se tale un árbol más, a que se contamine un poco más el aire que respira, y a que se generen unos cuantos kilos más de basura. El cambio hacia un menor consumo no se puede dar expeditamente cuando los costos económicos son altos y resulta financieramente imposible compensar a los afectados. La sustitucion de procesos ‘nocivos’ por unos más bondadosos pueden ocurrir más o menos rápido dependiendo de las circunstancias de cada sector, y muy particularmente del ente regulatorio en que operan. Sin embargo, los reclamos mencionados previamente sobre las prácticas productivas impropias deben ser atendidos con prontitud, de otra manera se continuará produciendo y consumiendo a niveles ficticios, es decir, a niveles superiores a los correspondientes a un estado donde se contabiliza los verdaderos costos de producción.

El consumismo es pues una causa y una consecuencia, un mal y una necesidad, una acción que es repudiada por muchos pero representa el motor de la mayoría de las economías. El punto importante es que para lograr un equilibrio más balanceado, también se requiere un proceso de cambio balanceado. El desafío es encontrar un punto donde los niveles de consumo no sólo favorezcan un medio de vida sustentable, justo y de calidad sino que también permitan que la creatividad humana, infinita e irrefrenable, se reoriente cada vez más hacia la comprensión integral de las necesidades del hombre y su hábitat.

lunes, 20 de julio de 2009

Las piezas lego de la naturaleza. La historia más extraña jamás contada. Parte 8.

La desigualdad de Bell

No es el caso ahora cómo, pero para un electrón es posible medir el valor de una variable (por ejemplo, el espín, que puede ser “arriba” o “abajo”) para distintas orientaciones. Así, por ejemplo, se puede observar que, para una orientación de 45º, el espín es “arriba” o que, para una orientación de 0º el espín es “abajo”. Si tenemos 100 electrones, la tabla siguiente nos muestra un ejemplo de cómo podría ser un conjunto de medidas del espín según tres orientaciones posibles. 

 

45º Arriba

45º Abajo

 

 

45º Arriba

45º Abajo

0º Arriba

10

14

 

0º Arriba

12

15

0º Abajo

11

13

 

0º Abajo

12

13

90º Arriba                                                            90º Abajo

 Así, el número 10 de la casilla primera diría que se han observado 10 electrones que, para las tres orientaciones de 0º, 45º y 90º, el espín siempre es “arriba” (up). El número 15 de la casilla arriba a la derecha del todo significa que se han observado 15 electrones cuyo espín es “arriba” cuando se mide para una orientación de 0º y “abajo” para las otras dos.

Resulta evidente que el número de electrones (0º arriba, 45º abajo) (14 + 15) más el número de electrones (45º arriba, 90º arriba) (10 + 11) debe ser mayor que el número de electrones (0º arriba, 90º arriba) (10 + 14), puesto que estos últimos incluyen sólo una parte de los primeros y también sólo una de los segundos. O eso parece.

El caso es que, aunque no sepamos qué número de electrones está en cada casilla, la desigualdad tiene que darse. Sin embargo, cuando hacemos el experimento con millones y millones de electrones, la desigualdad no se cumple, y el número de electrones (0º arriba, 45º abajo) más el número de electrones (45º arriba, 90º arriba) es menor que el número de electrones (0º arriba, 90º arriba). Es como si, al medirlos, les cambiáramos las características. Es decir, como si, cada vez que medimos el espín de los electrones para una determinada orientación estuviéramos cambiando los números que se ponen en las casillas o, lo que sería lo mismo, como si estuviéramos cambiando el espín de los electrones.

Esta es la famosa desigualdad de Bell, la que implica que no hay causas ocultas que nos son desconocidas y que son el origen de la indeterminación de las variables en la mecánica cuántica. Lo que dice esta desigualdad es que, a todos los efectos, el espín no está definido (no es que no lo sepamos) cuando no se mide y que, cuando se mide y se le da un valor, la naturaleza da ese valor de acuerdo con unas reglas muy extrañas, siguiendo unas distribuciones de probabilidad para las que no intuimos ninguna posible explicación, sólo que son las que son.

Mis aclaraciones

1. Llevamos varias entradas diciendo que no se pueden observar dos características de una partícula con precisión y ahora resulta que podemos medir el espín en dos orientaciones distintas. ¿Qué engaño es este? La cuestión no es baladí, y es la que impidió dar respuesta clara a las objeciones de Einstein y otros sobre las variables ocultas. La clave está en el “entrelazamiento” de partículas. Podemos tener un sistema de dos electrones y podemos saber que su espín para una determinada orientación es nulo. Como el espín es una medida de momento angular (giro, para entendernos) y como el momento angular debe conservarse, si un electrón tiene espín 1/2, el otro debe tener espín -1/2. De esta manera podemos examinar el espín en una orientación directamente en un electrón y el espín en otra orientación en el electrón entrelazado.

2. El entrelazamiento añade una nueva dimensión en las cosas extrañas de la mecánica cuántica. Si un electrón no tiene definido el espín hasta que se mide ¿cómo sabe su “gemelo” que le toca definirse de la manera congruente con la definición que dio el otro?

3. Obviamente, los electrones no saben nada. Lo único que ocurre es que el Universo sólo existe satisfaciendo ciertas reglas, como esta de conservar el momento angular. A nosotros nos parece que esto debería estar pre-definido en cualquier Universo realmente existente. Pero parece que el Universo no está para satisfacer nuestros deseos y que el futuro no está determinado hasta que no se producen interacciones, con las que la realidad va tomando su sitio pieza a pieza. El Universo, en suma, no es tan real como quisiéramos, pero sí es tan real como hace falta para que sea.

miércoles, 15 de julio de 2009

Las piezas lego de la naturaleza. La historia más extraña jamás contada. Parte 7.

El principio de indeterminación de Heisenberg

Hoy toca hablar del principio de indeterminación de Heisenberg, pero antes es necesario conocer la constante de Planck. Max Planck estableció la ley que lleva su nombre y que dice que la energía de un fotón es proporcional a su frecuencia (la frecuencia es el número de veces que la onda oscila en una unidad de tiempo). Esta proporción es la constante de Planck, que se denomina h y que es un número muy pequeño. Para hacernos una idea de lo pequeño que es, pensemos que la energía de un fotón es muy pequeña y que el fotón oscila mucho. ¿Cuánto? Un fotón de energía normalita, por ejemplo el de la luz amarilla, tiene una longitud de onda (distancia entre dos cretas de la onda) de casi 0,0000006 metros. Moviéndose la luz a 300.000 km/s, esto quiere decir que pasan 300.000.000/0,0000006 = 3.000.000.000.000.000/6 = 500.000.000.000.000 crestas cada segundo, y esa es la frecuencia de la onda amarilla: 500 millones de millones de oscilaciones por segundo. Para traducir eso a la energía del fotón (muy pequeña) hay que multiplicar ese número por uno muy, muy pequeño. Para los curiosos diremos que h es igual 6,626 dividido entre diez mil millones de millones de millones de millones de millones si queremos expresar la energía del fotón en julios por segundo. Una caloría de las de comer (en realidad son kilocalorías) tiene 4.200 julios.

Vale, ya sabemos que la constante de Planck es un número muy pequeño, ¿qué tiene de extraño? Nada especialmente sino fuera porque impone un límite a lo que podemos medir. Pero no porque no podamos nosotros, sino porque la naturaleza no ofrece medidas con tanta precisión. Veamos cómo.

En la parte 5 de esta historia más extraña jamás contada vimos cómo no podíamos tener a la vez la posición del electrón y la interferencia de la onda en pantalla. Si sabíamos por cuál ranura pasaba el electrón, nos quedábamos sin interferencia. Si queríamos la interferencia, nos quedábamos sin saber por cuál ranura pasaba. De hecho, podíamos haber intentado saber la ranura por la que pasaba el electrón con algún margen de error. Un experimento así diseñado, con margen de error, tendrá como consecuencia encontrar una cierta interferencia, más cercana a la “verdadera” cuanto mayor margen de error nos permitamos para saber el camino del electrón. El margen de error en nuestra información sobre la ranura por la que pasa el electrón se puede medir como la varianza de la información (de la serie de números que nos da la observación con error). También las interferencias observada tendrán su varianza. Pues bien, resulta que el producto de estas varianzas, expresadas en las unidades adecuadas, no puede ser inferior a la constante de Planck (dividida por 2 pi).

Lo anterior es cierto para cualquier par de valores que uno quiera saber acerca de una partícula elemental. El ejemplo más citado es el de conocer la posición y la velocidad. Si queremos saber con precisión la posición, no sabremos nada de la velocidad y viceversa. Pero si nos permitimos un margen de error en la posición, tendremos la velocidad también con un margen de error. Otros valores interesantes son el momento angular respecto a cada uno de los ejes de rotación o la energía y el tiempo.

Se suele decir, como parte de la lección del principio de incertidumbre, que si queremos ver un electrón, por ejemplo, hay que hacerlo interactuar con un fotón, y que al hacer eso, el fotón alterará su posición y velocidad. Pero este ejemplo no da la verdadera naturaleza del principio de incertidumbre. No es que no podamos saber ambos valores, lo que ocurre es que la partícula NO TIENE DEFINIDOS ESOS VALORES antes de medirlos y, al medirlos, tendrá definido uno u otro, según cuál queramos medir.

Ahí queda eso.

Esto es lo que le hizo decir a Einstein aquello de que “dios no juega a los dados”, a lo que le respondieron, por partida doble: “Einstein, deja de decirle a dios lo que tiene que hacer” y “dios no solo juega a los dados, sino que los arroja donde no podemos verlos”. Einstein no se dio por vencido y sostuvo que la mecánica cuántica debía estar incompleta y que, cuando tuviéramos conocimiento de las variables necesarias para completarla, desaparecerían estas paradojas.

La mayoría de los científicos de la época disentían de la opinión de Einstein y algunos más, pero no fue hasta más tarde (Einstein ya fallecido) que Bell propuso la manera de demostrar de una vez por todas si podía haber o no variables ocultas. Pero esto nos lleva a una siguiente entrada todavía más extraña.

domingo, 12 de julio de 2009

Una imagen distorsionada vale menos que 435 palabras


En estos tiempos de televisores digitales panorámicos tenemos, Houston, un problema. Los nuevos televisores ofrecen una mejor imagen, en general, que los viejos de rayos catódicos (digo en general, porque un buen televisor de los viejos, con buena recepción ofrece una imagen comparable o mejor a muchos modernos a no ser que la emisión esté en alta definición y el aparato esté preparado para recibirla). La ventaja de los nuevos, además del grosor y las menos interferencias, es la posibilidad de mantener una imagen buena con pantallas más grandes y, por supuesto, ofrecer alta definición si el DVD o el canal de TV digital presentan así la imagen.

El problema es que, de momento, la mayoría de los canales y un buen número de DVD’s todavía emiten o están grabados en formato 4:3, mientras que las pantallas de los nuevos televisores guardan las proporciones 16:9.

Un pequeño cálculo indica que 4:3 es la misma proporción que 12:9 o que 16:12 y, de ninguna manera, la misma que 16:9. El formato panorámico16:9 tiene 1/3 más de ancho que la proporción 12:9 o, lo que es lo mismo, el formato panorámico 16:9 tiene 1/4 menos de alto que la misma proporción 16:12 (que es la 12:9 y que es la 4:3).

Esto quiere decir que un programa en formato 4:3 tendrá todas las imágenes achatadas un 25% respecto de su proporción real si se fuerza a caber en el formato panorámico. Todas las figuras humanas serán caricaturas chaparritas de sus versiones reales.

Por supuesto, si la imagen original está en formato panorámico y se empeña uno en hacerla caber en el formato 4:3, el resultado serán figuras como las de los cuadros del Greco.

Pues bien, al tener un televisor de pantalla panorámica, parece que el instinto o qué se yo, nos hace querer rellenarla, a pesar de la flagrante distorsión. Tenemos una tecnología con la que podemos ver mejor las imágenes y, al final, las vemos peor. O eso pienso yo, que sufro en bares y casas ajenas en las que los ojos de los videntes no parecen percatarse de la distorsión.

Una explicación alternativa es que, percatándose, les guste más el efecto “rellenado de pantalla” y eso les compense. Dudo esto último, porque ya me he topado con quien ahora cree que la imagen está distorsionada cuando no ve a estas figuras achatadas. ¡No quiero ni pensar lo que pasará con las pantallas 21:9 que ya están en el mercado!

En fin, que todo es una metáfora de cómo tendemos a adaptar la realidad (la imagen emitida) a nuestros prejuicios (el tamaño de nuestra pantalla).

jueves, 9 de julio de 2009

Al monte se va con botas: La paradoja del examen sorpresa.

Una profesora anuncia un examen sorpresa para la semana siguiente. Los alumnos razonan de la siguiente manera. El viernes no podrá ser, puesto que si llega el viernes sin haber tenido examen, sabremos que será ese día. El jueves tampoco podrá ser, puesto que hemos descartado el viernes, así que si llega el jueves, tampoco será sorpresa. Por inducción, no podrá ser ningún día de la semana. Los alumnos deducen que la profesora no podrá poner ningún examen sorpresa.

Para asombro de todos, llega el miércoles y la profesora pone el examen.

La paradoja está resuelta desde hace muchos años. Se trata de mostrar que el enunciado de la profesora consta de varias proposiciones incompatibles entre sí. Lo vemos mejor si la semana solo tuviera dos días. Así, la profesora está diciendo:

  1. Si el examen es el día 1, la víspera (o ese día antes de clase) de ese día los estudiantes no sabrán que el examen es el día 1.
  2. Si el examen es el día 2, la víspera de ese día los estudiantes no sabrán que el examen es el día 2 y sabrán que no ha sido el día 1.
  3. El examen será alguno de esos dos días.

Es posible, usando las reglas de la lógica proposicional, mostrar que las tres afirmaciones no pueden ser ciertas a la vez (no lo voy a hacer). Hasta aquí no hay problema, todos los lógicos están de acuerdo. Lo que ha creado una larga confusión es que, a pesar de que la profesora ha dicho algo falso, resulta que consigue su objetivo de dar un examen sorpresa.

Llegados a este punto, la discusión ha dado lugar a decenas de artículos en revistas serias. Casi todos van al monte sin botas. Hay autores que se inventan ramas de la lógica sólo para intentar abordar la cuestión.

Borwein y compañía miden el grado de sorpresa con una definición de entropía y buscan así una estrategia para la profesora que maximice la tal entropía.

Según Shaw, la profesora hace unas afirmaciones autorreferenciales de tal manera que nada bueno se puede deducir de ellas.

Olin y Sorensen se ponen a definir “puntos ciegos” epistemológicos y no sé qué diantre hacen con ellos.

Otros se ponen a decir cosas como que saber una preposición un día no es lo mismo que saberla otro día.

Sober, que propone una buena manera de abordar el problema, sin embargo se pone a decir que hay que distinguir entre predicciones prudenciales y evidenciales para concluir no sé tampoco muy bien qué cosa.

En realidad, la cosa es más sencilla. Pensemos en una semana de dos días. Cada día la profesora decide si poner o no un examen, y cada día los alumnos apuntan un SÍ o un NO en un sobre. Si hay examen y apuntaron SÍ, o si no hay examen y apuntaron NO, no hay sorpresa. En caso contrario sí la habrá. Pongamos que la sorpresa le reporta un beneficio (felicidad, utilidad, como quiera llamarse) de 1 a la profesora y de -1 a los alumnos. La no sorpresa cambia el beneficio de cada uno. Los pagos son arbitrarios y podemos cambiarlos si se quiere.

Si no ha habido examen el día 1, el día 2 se enfrentarán al siguiente juego

Día 2

NO

Examen

-1,1

1,-1

No examen

1,-1

-1,1

La única manera de elegir consistentemente en este juego es echar a cara o cruz entre poner examen o no por parte de la profesora y escribir SÍ o NO por parte de los alumnos. El beneficio esperado para cada uno será cero.

Sabido esto, el día 1 el juego es parecido. Ambos tienen que elegir como antes, pero aquí surge un problema. Si la profesora elige no poner examen y los alumnos eligieron SÍ, ¿seguimos con el juego? Si es así, esto querría decir que los alumnos pueden anticipar el examen cada día, de manera que alguno acertarán. Una cosa sensata es decir que, en ese caso, perdieron su oportunidad y el juego se acaba. Otra es decir que esto les impide decir SÍ en el futuro, de manera que el juego del día dos tras (No examen, SÍ) habría sido trivial, con la profesora poniendo el examen los alumnos sorprendidos. Voy a seguir el primer caso, que deja así el primer día:

Día 1

NO

Examen

-1,1

1,-1

No examen

1,-1

0,0

En la casilla (No examen, No) hemos puesto ceros, que son los pagos que se esperan obtener el día siguiente. La casilla (No examen, NO) la podemos interpretar como que el juego se acaba o como que, aún siguiendo, los beneficios son (1,-1) no importa lo que pase el segundo día, porque ya se erraron los alumnos en su elección. La única manera consistente de decidir ahora es, para la profesora, elegir poner examen con probabilidad 2/3 y, para los alumnos, elegir SÍ con probabilidad 1/3. (Otras posibles variantes las tengo publicadas con Jesús Zamora aquí. Se puede leer también aquí.) En el análisis vemos claramente los dos hechos fundamentales de la paradoja:

No es posible poner un examen y que sea sorpresa. Pero esto es porque no es posible que ocurra con probabilidad uno. Vemos que, en nuestro análisis, hay una probabilidad 1/3 x 1/2 = 1/6 de que no hay examen, y una probabilidad positiva de que, habiéndolo, no sea sorpresa. Podíamos haber insistido en que debía haber examen, sólo habría que alterar el juego del día 2 y tendríamos la misma conclusión acerca de que el examen no puede se sorpresa con probabilidad 1.

¡Pero la profesora consigue poner un examen sorpresa! Esto es porque nos cuentan sólo uno de los posibles finales de la historia, cuando los dados cayeron de manera que la profesora pone el examen y los alumnos no lo adivinaron. Lo que he expuesto aquí dice que eso sólo puede pasar con alguna probabilidad si, al lado, está la probabilidad de que no pase.

Lo que ha pasado es que ni alumnos ni profesora pueden razonar al margen de lo que crean que va a hacer el otro, ni al margen de cómo valoren acertar o no, y esto nos coloca en el mundo de la Teoría de los Juegos, puesto que la lógica proposicional no podrá dar cuenta de la interacción entre las acciones y creencias de los dos jugadores. No estaban hechas esas botas para este monte.

domingo, 5 de julio de 2009

Las piezas lego de la naturaleza. La historia más extraña jamás contada. Parte 6.

Las partículas elementales

Las partículas subatómicas nos guardan más extrañezas como las de la doble rendija. Antes de seguir con ellas, convendría saber cuáles son las piezas lego del Universo. Teníamos a los átomos que resultaron estar compuestos de núcleo y electrones. Además de esto teníamos por ahí danzando a los fotones. ¿Algo más? Pues… mucho más. Pero me centraré sólo en unas pocas de la partículas elementales.

Resulta que el núcleo de los átomos está formado por protones y neutrones. Ambos de igual masa, pero los protones tienen carga eléctrica positiva y los neutrones carga neutra. Sucede que cada elemento está caracterizado por el número de protones de su núcleo; así, el Hidrógeno tiene un protón, el Helio dos, el Carbono seis, el Cloro 17 y el Oro 79. También sucede que la carga eléctrica de un protón es exactamente la misma (pero de signo contrario) que la del electrón y que parece haber tantos electrones como protones en el universo. Un átomo al que le falte un electrón estará cargado positivamente y tenderá a atraer un electrón, así que casi siempre los átomos tienen el mismo número de electrones que de protones. Además, casi siempre habrá también el mismo número de neutrones, aunque esto puede variar, dando lugar a isótopos del mismo elemento. Así, el número de protones marca el elemento, el número de electrones su comportamiento eléctrico y el número de neutrones su comportamiento radiactivo. Los electrones tienen una masa mucho más pequeña que los protones o neutrones, así que estos constituyen casi toda la masa conocida del Universo.

Estamos lejos de terminar. Resulta que los protones y neutrones no son piezas simples, sino que están compuestas de otras piezas, llamadas “quarks”, de los que cada uno, protón y neutrón, tiene tres. Los quarks, de momento, parecen ser piezas simples, como el electrón y el fotón, pero nunca se sabe…

Hay seis tipos de quarks, que van por parejas. Los que componen el protón y el neutrón son quarks “arriba” y quarks “abajo”. El quark arriba tiene carga positiva de 2/3 y el quark debajo negativa de 1/3. El protón se compone de dos “arriba” y un “abajo” y el neutrón de dos “abajo” y un “arriba”. Los demás quark tienen más masa, pero no se encuentran sino en estados de mucha energía, como en el interior de los aceleradores de partículas. Los dos siguientes son el quark “encantado” y el quark “extraño”, con carga eléctrica 2/3 y -1/3, respectivamente y, finalmente, el “fondo” y el “cima”, también con cargas 2/3 y -1/3 y todavía más masivos.

El electrón tiene también a sus primos, el muón y el tau, ambos con carga negativa y cada uno con más masa que el anterior.

Además de todo esto, cada una de las partículas anteriores tiene su correspondiente antipartícula, con las mismas características, pero con la carga eléctrica opuesta. Las partículas forman la antimateria, de la que únicamente conocemos la poca que se ha generado en los aceleradores de partículas. Es bueno que no haya antimateria por los alrededores. Si se junta la materia y la antimateria, se transforman en energía. Unos pocos gramos bastarían para generar una explosión como la de una bomba nuclear. Electrones y quarks son partículas con masa y carga eléctrica. La fuerza eléctrica es mucho (muchísimo) más grande que la gravitatoria, así que la primera es la que manda y lo que dice es que los protones no pueden estar juntos en el núcleo del átomo porque se repelen al tener todos carga positiva. Pero como están juntos en el núcleo, debe haber otra fuerza todavía mayor que los mantenga unidos, esta es la fuerza nuclear fuerte o interacción fuerte.

Así como el fotón es la partícula (sin masa ni carga eléctrica) que transmite la fuerza electromagnética, el gluón es la que transmite la nuclear. El fotón viaja, por ejemplo, entre un protón y un electrón o entre dos protones a la velocidad de la luz, transmitiendo una fuerza de atracción en el primer caso y una de repulsión en el segundo, pero el fotón en sí no tiene carga eléctrica.

Con los quarks las cosas son mucho más extrañas. Para empezar los quarks vienen en tres colores: azul, verde y rojo. En realidad esto no tiene nada que ver con los colores de verdad, solo es una metáfora para indicar que la unión (atracción) entre quarks se produce cuando los colores suman “blanco”, es decir, cuando hay uno de cada. Esta es la interacción nuclear fuerte.

Recordemos que había también antiquarks. Pues bien, estos tienen también “anticolor”. Los tres anticolores juntos también dan blanco y unen a sus portadores.

El color es una especie de rotación matemática del quark, así que cada quark puede tener un color u otro dependiendo de cómo rote, y el encargado de hacer rotar a los quarks es el gluón. El gluón es una partícula sin masa ni carga eléctrica, pero que sí tiene color. De hecho tiene un color y un anticolor. Así que, además de transmitir la fuerza nuclear fuerte, también la sufre. La manera en la que sucede es que los quarks intercambian gluones y se tiñen (cambian de color) al hacerlo. Con la interacción adecuada, al final tres quarks suman blanco y se quedan juntos. Pero el gluón o gluones tienen que quedarse ahí para mantenerlos juntos.  Funcionan como un muelle, cuanto más quieras separar los quarks, más fuerza hace falta. Hasta que se suelta el muelle. Por eso la fuerza nuclear fuerte actúa solo a escalas pequeñas.

Pero esto es solo parte de la historia, la que explica cómo se pegan los quarks entre sí para formar un hadrón (un protón o un neutrón). La manera en la que se atraen entre sí los protones y los neutrones es mediante lo que se llama la fuerza nuclear residual. Las cargas eléctricas opuestas se cancelan. Si un sistema tiene 5 negativas y 4 positivas, la fuerza residual es la proporcionada por la carga negativa no cancelada. Igual ocurre con la interacción nuclear fuerte, y esta fuerza residual sí disminuye con la distancia, pero no con el cuadrado, sino que lo hace exponencialmente.

miércoles, 1 de julio de 2009

Las piezas lego de la naturaleza. La historia más extraña jamás contada. Parte 5.

Las partículas son más raras que los fantasmas.

En la parte 3 de esta historia más extraña jamás contada vimos cómo la luz, al pasar por dos rendijas, producía una interferencia típica de las ondas. Si repetimos el experimento, pero con electrones en lugar de fotones, encontramos el mismo tipo de interferencia, así que los electrones se comportan también como ondas, en contra de lo supuesto hasta ahora, que eran partículas. ¿Cómo puede ser esto? Uno puede suponer que los electrones, interaccionan unos con otros para producir el patrón similar al de las ondas. Pero sucede que es posible graduar nuestra fuente de emisión de electrones para que los emita de uno en uno. Si hacemos esto, encontramos que cada electrón llega a un sitio determinado, según se ve en la figura que abre la entrada. 

Así, cada electrón es una partícula, pero cae en un lugar u otro de la pantalla según las leyes que gobiernan las ondas. En lugar de atravesar la rendija en línea recta, es como si atravesara las dos rendijas e interfiriera consigo mismo (como hacen las ondas), pero luego, en lugar de impresionar la pantalla como hacen las ondas (como en la pantalla e), la impresiona como hacen las partículas (con solo un puntito, como en a), pero de tal forma que esa impresión es justo parte del patrón que siguen las ondas, como se ve cuando hemos bombardeado la pantalla con muchos electrones. ¿Cómo sabe cada electrón dónde tiene que caer para que el resultado final sea justamente el observado en e?

Obviamente, el electrón no sabe nada. Ocurre que obedece unas leyes físicas, que están marcadas por su función de onda. A partir de esa función se pueden calcular las probabilidades de estar en cualquiera de los lugares posibles. No debe resultar extraño, a estas alturas, proponer que la naturaleza obedece ciertas reglas (como que la atracción gravitatoria disminuye con el cuadrado de la distancia). Ocurre, simplemente, que las partículas subatómicas obedecen leyes muy extrañas que no somos capaces de intuir.

Así que los electrones son ondas y, además ocupan órbitas cuando están ligados a un átomo. En estas órbitas siguen su ecuación de onda particular, que quiere decir que ocuparán cierta región del espacio de esa órbita con cierta probabilidad. Es más, no es que esté en un sitio y no sepamos cuál es, sino que está en cada uno de esos sitios con ciertas probabilidades.

En el experimento de las dos rendijas podemos intentar saber si el electrón pasa por una de ellas o por ambas. Colocamos un detector de electrones en cada rendija y miramos a ver qué pasa. Y lo que pasa es que cada electrón pasa sólo por una rendija. Y pasa, además, que cuando hacemos esto, el electrón deja de comportarse como onda y pasa a comportarse como partícula, dejando de presentar el patrón recogido en la pantalla e.

Recapitulemos. Cuando sólo está abierta una rendija, no se produce interferencia. Cuando se abren dos rendijas sí se produce, pero si miramos, el electrón solo pasa por una y deja de haber interferencia. En otra palabras, si hacemos el experimento para ver si el electrón es una partícula, se comporta como partícula. Si lo hacemos para ver si es una onda, se comporta como onda. Esto, además, pasa con cualquier otra partícula subatómica. Como decía Alicia: “Curiouser and curiouser!”

Entre otras cosas, esto quiere decir que no hay manera de saber qué va a hacer el electrón. No es que no tengamos los instrumentos adecuados para medir con la precisión necesaria, es que tal cosa es, en el mundo cuántico, imposible.