Etiquetas

Estadística (17) 2Bachillerato (14) bachillerato (14) 4eso (13) probabilidad (10) 1bachillerato (9) CoVid19 (8) 2eso (7) economía (7) elecciones (6) 3eso (5) democracia (5) desigualdad (5) desviación típica (5) física (5) Porcentajes (4) ciencia (4) ley d'Hont (4) media (4) encuesta (3) error (3) física teórica (3) geometría (3) gráficas (3) relatividad (3) sucesión (3) Darwin (2) Examen (2) Madrid (2) astronomía (2) clase social (2) educación (2) exponencial (2) exposición (2) fisica cuantica (2) funciones (2) gráfica (2) historia (2) lotería (2) matemáticas CCSS (2) politica (2) proporcionalidad (2) sesgo (2) Alejandría. biblioteca (1) Bayes (1) Constitución (1) CosmoCaixa (1) Crack 29 (1) Gagarin (1) Gini (1) Hipatia (1) Hoover (1) Noether (1) Número irracional (1) PAU (1) Porcentajes encadenados (1) Queen (1) Renta per capita (1) Tales de Mileto (1) actividad (1) agujero negro (1) algoritmos (1) calendario (1) cambio climático (1) diagrama de barras (1) diagrama de sectores (1) día del libro (1) ecología (1) ecuaciones (1) elipse (1) evolución (1) extremo relativo (1) fracción (1) frecuencia (1) globalización (1) gravitación (1) gregoriano (1) hipercubo (1) impuesto (1) inecuaciones (1) inicio (1) interpolación (1) juliano (1) matemáticas financieras (1) media aritmética (1) media geométrica (1) mediana (1) meteorología (1) museo (1) máximo (1) mínimo (1) música (1) número normal (1) número trascendente (1) ondas (1) ondas gravitatorias (1) paradoja (1) pobreza (1) polinomios (1) política fiscal (1) porcentaje (1) profecía autocumplida (1) punto de inflexión (1) rango (1) riqueza (1) salario (1) simetría (1) solución (1) tabla (1) taller (1) talleres (1) valor medio (1) álgebra (1)

miércoles, 18 de diciembre de 2013

Un poco de música, física y matemáticas

Cuál si fuese un personaje de "The Big Bang Theory" aquí está este señor cantando "Bohemian Gravity", parodia-homenaje cuántico-relativista a Queen ¿o a Queentum?


A continuación una pequeña aclaración sobre algunos términos de la letra:

Teoría de cuerdas: en las teorías de partículas se suponía que el mundo estaba formado por un montón de partículas moviéndose sobre el escenario (espacio-tiempo). Las partículas son puntitos sin o casi sin extensión pero con masa y alguna otra característica (spin, carga, etc). En las teorías de cuerdas las cosas que están sobre el escenario son cuerdas, es decir, cosas con una dimensión que tienen tensión y que pueden vibrar con distintas frecuencias (como las de un violín) para dar lugar a objetos con distintas propiedades (como la masa que sería mayor cuanto mayor fuese la frecuencia de vibración).

Manifold : variedad, conjunto de puntos, si tuviese dos dimensiones sería un plano o una superficie curva, pero en la teoría de la relatividad (gravitación de Einstein) la variedad que es nuestro universo tiene 4 dimensiones (3 del espacio y una temporal) y en las teorías de la física moderna hay unas cuántas dimensiones más. Por estas variedades se pueden mover puntos (o sea partículas), cuerdas o cosas más raras.

 Dimensiones extra: son las dimensiones que se añaden a las cuatro conocidas para esconder en ellas el resto de Fuerzas que hay en el universo, aparte de la gravedad. En la teoría de la relatividad general tenemos una variedad 4D curva por la que se mueven partículas. En esta variedad las partículas se mueven por los caminos más cortos, para ello hace falta un objeto llamado métrica que nos permite medir las distancias. este objeto es una tabla de 4x4 números. Si añadimos una dimensión más, nos quedaría una tabla de 5x5, lo cuál nos deja sitio para otras 5 funciones entre las cuales estaría el vector potencial electromagnético A de cuatro componentes que nos da los campos electromagnéticos (Teorías de Kaluza-Klein). Si seguimos aumentando las dimensiones del Universo y el tamaño de la tabla métrica nos queda sitio para meter más fuerzas.

Compactificación de dimensiones: El problema con añadir más dimensiones está en la pregunta ¿Y dónde están?
Están aquí mismo pero no las vemos porque son muy pequeñas, están enrolladas sobre sí mismas en forma de circunferencia con un diámetro muy, muy, muy pequeño (de unos 10⁻33 cm, la llamada longitud de Planck). Se pueden ver como si en cada punto de la variedad M tuviéramos una circunferencia, es decir, para cada punto del Universo identificado  por largo, ancho, alto e instante de tiempo tenemos una circunferencia en la que se mueve la quinta posición entre valores de 0 y muy poco. No se podría ver el movimiento en esta dimensión, pero su efecto sería la aparición de las ecuaciones del campo electromagnético de Maxwell afectando a las partículas cargadas.

Topología: se llaman características topológicas de una variedad a las que  nos permiten saber si dos puntos están cercanos  o no, o comparar la cercanía entre dos pares de puntos; pero sin poder medir ninguna distancia entre ellos. Esto último sería una propiedad geométrica.


Topología MxS1: serían las propiedades topológicas correspondientes a una variedad de 5 dimensiones en la que asociada a cada punto de una variedad de 4 dimensiones hubiese una circunferencia en la cual se moviese la quinta variable x5. 
La topología de un línea sería la de la recta numérica real, ya que cada punto se podrían asociar con un número real,  y se representa por R. Si en cada punto de esta línea incrustamos una circunferencia que se representa con el símbolo S1, obtendríamos una topología representada con RxS y que en términos más sencillos correspondería a un cilindro.
S3 corresponde a una "esfera" de 3 dimensiones , y S5 a una "esfera" de 5 dimensiones.

Taquión: hipotética partícula con masa imaginaria múltiplo de i = 1 i = sqrt{-1} que se mueve a mayor velocidad que la luz. Curiosamente con energía cero se moverían a velocidades infinitas, pero cuánto mayor fuese su energía más lentamente se movería siendo la velocidad de la luz un límite inferior que solo se alcanzaría con energías infinitas e inalcanzables. Justo al revés que en nuestro mundo de tardiones (este término existe realmente).

Dilatón: una partícula asociada a un campo escalar relacionado con el periodo inflacionario que se produjo inmediatamente después del Big Bang, y que hizó que nuestro Universo pasase de un tamaño minúsculo (menos que atómico)  a un tamaño macroscópico de una naranja mediante un crecimiento exponencial, por ejemplo, que cada billonésima de segundo se duplicase el diámetro del Universo. En realidad, por lo que se sabe, el tiempo de duplicación fue muy inferior a una trillonésima de segundo.

Próximamente en sus pantallas más conceptos como:

Renormalizable:

Cancelación de la anomalía:

Polyakov:

Variedad de Khäler:

domingo, 15 de diciembre de 2013

Paradojas loteras y profecías autocumplidas

Se acerca la Navidad y la necesidad que muchos españoles mostramos por donar dinero al Ministerio de Hacienda a través de la (aún pública) empresa de Loterías del Estado.

En estas fechas se ve la predilección que algunas personas muestran por comprar su décimo en alguna administración particular en la que creen que toca el premio con mayor facilidad como "Doña Manolita" en Madrid o "La Bruixa de Sort" en Sort (Lleida). Lo curioso es que en realidad tienen razón y, sin embargo eso no va a facilitar que su número sea el premiado.

Dicho de otra forma, si mucha gente compra sus décimos en esas administraciones es más probable que el Gordo caiga en ellas sin que ello implique que la gente que compra sus números allí lo tengan más fácil que si lo comprasen en su pueblo. Parece contradictorio pero no lo es. Es  lo que los filósofos y matemáticos llaman una paradoja.

Imaginemos un caso extremo. Se centralizan todas la ventas de lotería de Navidad en la administración de un pueblo, y toda España y parte del extranjero compran en esa administración. En ese caso seguro que el Gordo cae en esa tienda, pero la probabilidad de que le toque a uno de los clientes será la misma que si no se hubiese centralizado la venta ya que entran los mismos números en el bombo y todos tienen las mismas posibilidades de salir.

Al concentrar los números vendidos en unas pocas tiendas, la probabilidad de que el gordo caiga en ellas aumenta. Si la mitad de los números se vendieran en una administración la probabilidad de que cayese allí el gordo sería de 0,5; la misma de que saliese cara al lanzar una moneda, pero esa probabilidad se distribuiría entre muchos números y finalmente la probabilidad de acertar con el bueno sería la misma.

De tal forma que la obsesión por intentar comprar en una administración en la que ya ha caído el Gordo aumenta la probabilidad de que el Gordo vuelva a caer en el mismo lugar. Esto es lo que se llama una profecía autocumplida. Pero esto no redunda en nuestro beneficio, aunque sí en el del dueño de la administración de lotería que estará encantado de que la gente no sepa la suficiente probabilidad para entender esto, y se deje llaver por la superstición.

Buenas vacaciones de invierno y feliz cumpleaños de Jesús, de Newton y de Bogart.

martes, 26 de noviembre de 2013

Porcentajes y medicina

Ayer encontré en una revista un interesante reportaje sobre un análisis genético que permite detectar en el feto trisomías (anomalías cromosómicas) con una simple extracción de sangre de la madre. Esto es una moderna alternativa a la actual amniocentesis, un procedimiento más arriesgado ya que existe un riesgo de aborto del 1%.

 Se puede acceder al artículo completo a través de este enlace: ¿Análisis o amniocentesis?

El reportaje está muy bien, pero (siempre hay un pero) en medio de él se podía leer esto:
Según explica el doctor Izquierdo, “solo en una de cada 50 mujeres que van a una prueba invasiva se encuentra algún problema. El 49% restante se ha sometido a una amniocentesis innecesaria”.

¿49 de 50 es el 49%? ¿No os parece demasiado poco? Un 49% no llega a la mitad, y sin embargo 49 de 50 es una proporción muy alta. En realidad el porcentaje correcto correspondiente a 49 de 50 es 98%, y no 49%. Echemos cuentas mediante fracciones:

49 50 = 2 · 49 2 · 50 = 98 100 = 98% {49} over {50} = {2·49} over {2·50} = 98 over 100 = 98%
Aquí se ha usado fracciones equivalentes y el hecho de que, al fin y al cabo, un porcentaje no es más que una fracción con denominador fijo e igual a 100.

Evidentemente la intuición es muy distinta. Un porcentaje del 98% es casi la totalidad, mientras que 49% es solo la mitad.

miércoles, 6 de noviembre de 2013

Enlaces PAU

Para mis estudiantes de 2º de bachillerato dejo algunos enlaces útiles a antiguas (y no tan antiguas) pruebas de la PAU, algunas con solución:

Universidad de Alcalá PAU
Universidad Carlos III
Universidad Autónoma de Madrid
En el último caso, aunque ponga Alemán en el título son exámenes de Matemáticas aplicadas a CCSS

Próximamente más.

sábado, 2 de noviembre de 2013

La ley D'Hont, las circunscripciones y las reformas electorales

En estos días se está produciendo en España varios intentos de cambiar la ley electoral con diversos motivos o excusas: ahorro, representatividad,  acercamiento del diputado a sus votantes... Dos ejemplos son la reducción de diputados en Castilla-La Mancha para "ahorrar" (El pucherazo de Cospedal) o la creación de circunscripciones en la Comunidad de Madrid (Gallardón defiende cambiar la ley electoral en Madrid para que haya un diputado por circunscripción).

La democracia depende mucho de las matemáticas. En particular, para una democracia representativa es necesario usar las matemáticas para asignar el número "correcto" de diputados a cada partido político, lo cual tiene importante influencia en la fuerza de cada partido y en el juego democrático de consensos y alianzas.

Una forma sencilla de hacerlo sería usando una simple ley proporcional:

n.  escaños  partido  A = Votos  partido A Votos  totales  emitidos · ( escaños  totales ) n. escaños partido A = {Votos partido A} over {Votos totales emitidos} ·(escaños totales)

Cuántos más votos obtiene un partido mayor será su porcentaje sobre el total de diputados de la cámara. Por desgracia, esto puede darnos fácilmente números decimales. Y está feo cortar diputados, sobre todo en algunos casos.

Para evitarlo se inventaron procedimientos como la ley D'Hont que nos permiten asignar los diputados siguiendo una ley aproximadamente proporcional pero obteniendo siempre números naturales. Los pasos que hay que seguir en la ley d'Hont para asignar escaños son lo siguientes:
  1. Asignamos el primer escaño al partido más votado (el partido A).
  2. Dividimos el número de votos del partido A al que hemos asignado el escaño entre 2.
  3. Asignamos el siguiente escaño al partido que más votos tenga AHORA.
  4. Dividimos el número de votos del partido al que hemos asignado el último escaño entre el número de escaños que tiene más uno.
  5. Repetimos el paso 3 y 4 hasta que se agoten todos los escaños

Durante muchos años se ha hablado también de la falta de proporcionalidad de la ley electoral española que hace que los escaños no cuesten el mismo número de votos a todos los partidos.Mucha gente piensa que el único y principal culpable es la llamada ley d'Hont. Veámoslo con números.

En la primera fila se usa el sistema proporcional simple redondeando el resultado a números naturales, tiene el defecto de que el número de escaños no se ajusta a los 350 de la cámara sino a 349. La segunda fila corresponde a los porcentajes sobre el total de escaños que ofrece el sistema proporcional. La tercera fila nos da los resultados de la ley d'Hont sin circunscripciones. En la cuarta y quinta fila encontramos la diferencia porcentual con el sistema proporcional, pero en la cuarta respecto al total de escaños y en la quinta fila respecto a los escaños obtenidos por el sistema proporcional. En las siguientes filas tenemos lo mismo, pero referido a los escaños obtenidos realmente ne las elecciones de 2008 aplicando la ley d'Hont con las circunscripciones provinciales vigentes en España.


PSOE PP IU CIU ERC BNG PNV CC NaBai UPD Total
Proporcional
Simple
160 146 14 11 4 3 4 2 1 4 349
Porcentaje (%) 45,71 41,71 4 3,14 1,14 0,86 1,14 0,57 0,29 1,14
D'Hont sin
circunscripciones
162 147 13 11 4 3 4 2 0 4 350
Diferencia porcentual
Con proporcional
0,57 0,29 -0,29 0,00 0,00 0,00 0,00 0,00 -0,29 0,00

1,25 0,68 -7,14 0,00 0,00 0,00 0,00 0,00 -100 0,00
D'Hont con
circunscripciones
169 153 2 11 3 2 6 2 1 1 350
Diferencia porcentual
Con proporcional
2,57 2,00 -3,43 0,00 -0,29 -0,29 0,57 0,00 0,00 -0,86

5,63 4,79 -85,71 0,00 -25,00 -33,33 50,00 0,00 0,00 -75,00

En ambos casos , con y sin circunscripciones provinciales, existen anomalías y desviaciones respecto de la proporcionalidad pura, estas desviaciones son claramente mayores cuando tenemos circunscripciones provinciales aunque en ambos casos se aplique la ley d'Hont.


Todos estos resultados se han obtenido usando hojas de cálculo:


Datos  relativos a las elecciones generales de 2008:
Elecciones Generales España 2008

Con los datos reales de las elecciones autonómicas de Madrid y castilla-La Mancha (2011) y modificando ligeramente estas hojas, se podría ver el efecto de los cambios sugeridos a las leyes electorales en los escaños obtenidos por los partidos que se presentaron a aquellas elecciones incluido el partido que ahora tiene en su mano la mayoría absoluta y la posibilidad de llevar a cabo estos cambios legislativos.

sábado, 12 de octubre de 2013

Gráficas mentirosas

¿No veis nada raro en estas gráficas?



Es otro ejemplo, y reciente, sobre el uso indebido de gráficas estadísticas "mal hechas". Podéis leer un un completo análisis de Joaquín Sevilla en este artículo Mentiras gráficas, probablemente intencionadas

miércoles, 2 de octubre de 2013

Pensiones y más porcentajes encadenados

En estos momentos en España se está debatiendo el cambio, mejor dicho, se está cambiando el sistema público de pensiones. Según los que pretenden reformarlo, porque es insostenible, aunque a veces parece que sencillamente se desmonta para dar oportunidad de negocio a otros elementos en este mercado.

En esta reforma se ha planteado la posibilidad de aumentar las pensiones como mínimo un 0,25%, lo que se presenta como un gran avance ya que hace unos años las pensiones quedaron congeladas (sin subida), debido a la crisis. Así visto, mejor una subida en un año del  0,25% que un 0%. Pero, ¿realmente es tan bueno? Si uno toma un solo año sí, pero vamos a tomar un  periodo más largo para comparar y no quedarnos en lo obvio.

Escojamos el periodo 2009 2011, ya inmersos en la crisis y coronado por la congelación del 2011. Los incrementos de las pensiones en ese periodo fueron:
  • 2009: 2,4%
  • 2010: 1,3%
  • 2011:    0%
¿Qué subida total hubo con estos porcentajes anuales y de cuánto sería si el porcentaje hubiese sido todos los años de 0,25%?

subida  con  variaciones = 1 + 2,4 100 1 + 1,3 100 1 + 0 100 = 1,037312 subida  constante  de  0,25 anual = 1 + 0,25 100 1 + 0,25 100 1 + 0,25 100 = 1,007518766 subida con variaciones =

A pesar de la congelación del 2011, los 100 € de 2008 serían 103,73 € en 2012, mientras que después de tres subidas idénticas de 0,25% los 100 € se habrían convertido en 100,75 €.

¿Cuál sería el porcentaje anual medio de aumento en el primer caso?
Parece fácil: se suma los porcentajes y se divide entre 3, y ya está. Pues no, existen muchos tipos de medias y esta no es la correcta en este caso, aunque la diferencia entre este cálculo erróneo y el correcto es muy pequeña esta vez.

La media aritmética cumple la fórmula relacionada con la suma:

media  aritmética = a + b + c 3 media aritmética = {a +b + c}

Mientras que la media correcta en este caso, la media geométrica está más relacionada con la multiplicación de varios factores que es justo lo que nos interesa cuando trabajamos con porcentajes encadenados

media  geométrica = a · b · c 3 media geométrica =

Aplicándolo a este caso, nos queda que en los años 2009-2011 la subida total equivale a una subida media anual de 1,2%:

1 + 2,4 100 1 + 1,3 100 1 + 0 100 3 = 1,024 · 1,013 · 1 3 = 1,012285775 1,012

Es decir, mayor que 0,25% a pesar de la congelación de 2011. Eso sí, esa subida del 1,2% fue probablemente inferior a la inflación. Y a partir de ahora será aún menor. 

Noticias sobre las subidas de las pensiones en el periodo 2009-2011:

miércoles, 14 de agosto de 2013

¿Punto de inflexión en economía o punto de inflexión en matemáticas?

En España los responsables de la economía (de alguna forma hay que llamarlos) hablan mucho últimamente de que se acerca un punto de inflexión, un cambio de tendencia (ver Montoro ve un punto de inflexión y piensa que "la economía está tocando fondo" o Montoro prevé un punto de inflexión de la economía en el segundo trimestre). Parece que pretenden insinuar que el estado de la economía española va a pasar de bajar a subir, de PIB decreciente a PIB creciente. Esto es lo que en teoría de funciones, o sea las típicas gráficas que se ven en 1º de bachillerato, se llama un mínimo relativo. También existe el máximo relativo, y en general, los estremos relativos. En el dibujo de la función o gráfica corresponde al fondo del valle entre dos montañas. Si estamos en el mínimo, nos movamos dónde nos movamos siempre subimos. O si avanzamos de izquierda a derecha, que es como se leen las gráficas en matemáticas, primero bajamos, pasamos por el mínimo y luego subimos. Hasta aquí, todo bien. Ojala suceda esto.



El problema es que si uno hace caso a los libros de matemáticas o a wikipedia y miramos la definición de punto de inflexión nos encontramos con que lo que pretenden insinuar estas personas no es lo que dice este concepto. Un punto de inflexión ocurre, por ejemplo, cuando una gráfica desciende (siempre avanzando de izquierda a derecha) se frena durante unos instantes, y vuelve a caer cada vez más deprisa. O viceversa.



Mi duda: ¿se equivocan cuando hablan de punto de inflexión porque no controlan el concepto matemático de 1º de bachillerato o aciertan en el uso de la expresión punto de inflexión y somos los demás los que los malinterpretamos cuando abrigamos esperanzas de una próxima subida del PIB?

jueves, 1 de agosto de 2013

Improbabilidades cotidianas

Hace unos días se ha publicado un artículo que encaja en lo tratado en este blog: Las probabilidades matemáticas de que lo de la infanta sea “un error” de Ignacio Escolar. En ese artículo se conjuga actualidad y unos cuántos resultados matemáticos sobre probabilidad. Trata sobre los curiosos errores cometidos alrededor de unas propiedades atribuidas a una infanta de la Casa Real española. Lo que nosotros vamos a abordar aquí son los razonamientos y cálculos que llevan a los resultados aportados en ese artículo.

Primero establezcamos una hipótesis sobre lo ocurrido para poder construir los cálculos. Se supone que se han cometido 4 errores independientes por parte de distintas personas al transcribir un número de un documento oficial (el famoso NIF) a una página web que un notario o un registrador de la propiedad deben cumplimentar con los datos de la venta de la propiedad. La cantidad de números disponibles para este NIF son 46 millones. Por tanto la probabilidad de equivocarse una vez sería de 1 entre 46 millones. Si se repite el error siempre con el mismo número equivocado la probabilidad sería de 1 entre 46 millones elevado a 4, es decir, una inmensa cantidad de posibilidades al repetir un número 4 veces:

( 46.000.000 ) 4 = ( 46 · 10 6 ) 4 = 46 4 · 10 6 · 4 = 4477456 · 10 24 = 4.477.456.000.000.000.000.000.000.000.000

Y la probabilidad sería exactamente 1 entre este número, es decir, un número muy, muy, muy pequeño que representa una probabilidad muy baja:

P = 1 ( 46.000.000 ) 4 2 · 10 31

Es decir, 0 coma 30 ceros más y después un 2. Hemos usado lo que se llama notación científica, una forma de escribir los número muy útil cuando se opera y escriben números muy grandes o muy pequeños.

Otro caso de improbabilidad cada vez más habitual en España está en el concurso que la Comunidad de Madrid llevó a cabo para privatizar la sanidad en su territorio (ver Seis ofertas para seis hospitales). En este concurso se ofertaba la gestión de 6 hospitales de la región a empresas sanitarias privadas o fondos de inversión (seguramente un buen negocio). Se han presentado 3 empresas que han optado a la gestión e distintos hospitales de la siguiente forma: tres para HIMA San Pablo, dos para Ribera Salud y uno para Sanitas. Curiosamente sin que haya habido competencia real entre ellas. ¿Cómo de probable es que sin haberse puesto de acuerdo no haya habido colisión entre sus intereses? Para responder a esta pregunta tendremos que calcular la probabilidad según la fórmula de Laplace, dividiendo la cantidad de maneras en las que se pueden repartir lols 6 hospitales (sin haber copincidencia) entre TODAS las formas en las que se pueden repartir los hospitales con coincidencia o sin ella. Aquí entra en juego una parte de la matemática llamada combinatoria.

Tengo disponible 6 hospitales ¿de cuántas formas puedo elegir dos? Tengo 6 hospitales disponibles, pero una vez elegido uno solo me quedan 5 para volver a elegir, en total, 6·5 = 30, entonces hay 30 formas de elegir 2 hospitales de 6. Pero como el orden no importa, o sea, da lo mismo elegir primero A y después B o a la inversa, tenemos que dividir entre 2. A esto se le llama combinaciones de 6 elementos tomados de 2 en 2

C 6,2 = 6 · 5 2 = 15
  C_{6,2} = {6·5} over 2 = 15
Si llevamos a cabo este proceso 3 veces para elegir 3, 2 y 1 hospital me queda
C 6,3 · C 6,2 · C 6,1 = 20·15·6
maneras de elegir 3 parejas sin tener en cuenta ninguna condición.

Ahora veamos cuántas formas hay de elegir sin que haya coincidencia. Primero elegimos un trio entre los 6 elementos de C 6,3 C_{6,2} maneras distitas. Ahora nos quedan 4 elementos de entre los que sacar una pareja, entonces habrá C 4,2 C_{6,2} formas de hacerlo. Y finalmente solo nos quedarán un elemento, elección que se podrá hacer de C 1,1 C_{6,2} formas distintas, en realidad solo una. La cantidad total de opciones se obtiene multiplicando los tres números:

 C 6,3 · C 4,2 · C 1,1 = 20 · 6 · 1

En este caso la probabilidad de este reparto se calcula dividiendo la cantidad de formas de repartir los 6 hospitales como buenos hermanos  entre todas las formas posibles: 
 
P = C 6,3 · C 4,2 · C 1,1 C 6,3 · C 6,2 · C 6,1 = 20 · 6 · 1 20 · 15 · 6 = 1 15 0,066 = 6,6%

Estos números no son tan impresionantes como los de los cálculos anteriores, pero aún así este reparto entre buenos hermanos dejado al azar ocurriría una vez de cada 15.

Gracias a Mauricio Fernández Martínez que fue quién me planteo la pregunta básica:
¿Es muy probable que casualmente se repartan tan bien los hospitales entre las empresas?

lunes, 29 de julio de 2013

Los porcentajes que nos encadenan

Hoy una entrada sobre algo relativamente sencillo (de 2º de la E.S.O.) pero que su desconocimiento nos puede encadenar a la confusión. Tomemos como ejemplo una noticia de Madrid del 18 de julio de 2013: Las tasas universitarias suben otro 20%, tras el 38% de 2012.

Si ahora preguntásemos por la calle, cuánto ha sido el incremento en estos dos años, habría personas que dirían: "Vamos a ver, 20% de un año y 38% del otro, sumamos y nos da ¡58%!". No es pequeña la subida, pero realmente la cosa es peor; la subida es de 65,6% ¿Por qué? Intentaré explicar la cuenta, que no las razones de la subida que son inexplicables.

Si algo cuesta en 2011 100 € tras la subida de 2012 costaría 138 €, es decir, multiplicamos por 1.38 el precio del año anterior.

P 2012 = P 2011 · 1 + 38 100 = P 2011 · 1.38
  P_{2012} = P_{2011}·left (1 + 38 over 100 right) = P_{2011}·1.38
Pero si ahora aplicamos la subida de 2013 (20%)  no sería sobre 100 €, sino sobre 138 €, por tanto, el precio final tiene que ser mayor. Aplicamos de nuevo la misma fórmula aplicada antes multiplicando 138 por 1.20 y nos da 165,6 €. Por tanto, hemos tenido una subida de 65,5 € sobre los 100€ iniciales de 2011. En fórmulas

P 2013 = P 2012 · 1 + 20 100 = P 2011 · 1 + 38 100 1 + 20 100 = P 2011 · 1.38 · 1.20 = P 2011 · 1.656 

Por esta misma razón, cuando se hace una subida del 20% y posteriormente una rebaja del 20% no se recupera el precio original. Debido al aspecto de la fórmula usada y el procedimiento empleado a estos porcentajes se les llama encadenados, dónde cada subida o bajada porcentual sería un eslabón de la cadena. Cadena, algunas veces nada metafórica.

sábado, 20 de julio de 2013

Exámenes resueltos de 3º ESO

Pues para mis alumnas y alumnos que suspendieron en junio y que espero que se estén preparando para el examen de septiembre, aquí dejó algunos exámenes resueltos de los que hemos hecho durante el pasado curso:

Ecuaciones 2º grado
Ecuaciones 2º grado y radicales
Geometria 3D
Global 1
Global 2
Global 3
Notación científica y ecuaciones de primer grado
Sistemas de ecuaciones

Próximamente más. Permanezcan atentos a sus monitores.

Ánimo y suerte.

viernes, 28 de junio de 2013

Santoral

A pesar de que la mayor parte de la tragedia ocurriese hace unos 1600 años, sí es una información de actualidad lo contado hoy. Ayer 27 de junio vi en la agenda que era el día dedicado al santo Cirilo de Alejandría. Este santo tiene a bien en su curriculum estar involucrado en el asesinato de Hipatia y la destrucción de la Biblioteca de Alejandría de la que Hipatia fue su última directora. Esta señora fue también filósofa de la corriente neoplatónica, profesora de matemáticas e investigó sobre las formas cónicas. Quizás fue la diseñadora, junto a su padre, de los primeros astrolabios.

Por todo eso, y lo que no conocemos de las obras clásicas tras la destrucción de la Biblioteca, quiero tener un recuerdo para Hipatia y la Biblioteca.

viernes, 10 de mayo de 2013

FINDE científico

En vista de cómo está la situación de la ciencia y la tecnología en España, quizás alguien espere en esta entrada un artículo catastrófico sobre el futuro de la ciencia. Pero no, es más sencillo. Se trata de una serie e actividades de carácter científico-tecnológico que se realizan en el Museo de Ciencia y Tecnología en Madrid durante el próximo fin de semana del 11 y 12 de mayo.

Si alguien pasa por Madrid que lo mir, antes de que toda la Ciencia española se pueda ver solo en el museo.

Finde científico

jueves, 9 de mayo de 2013

El sesgo, ¿es el nombre de un ogro?

Una nueva entrada sobre ... ¡estadística! ¡Qué sorpresa! En este caso tratamos con algo de nombre casi tan oscuro y feo como su significado: el sesgo estadístico.

En muchas ocasiones es necesario seleccionar unos cuántos datos  en un estudio estadístico, pero en cualquier caso esta selección debe ser explicita, objetiva y  estar justificada. Si esta selección no está bien hecha o no es conocida puede introducir "preferencias" que desvirtúe las conclusiones.

En ocasiones el sesgo es simplemente un error, una negligencia inconsciente como tantas otras. A veces, es una selección consciente que depende de la conclusión que se quiera "demostrar" y esta de quién pague el estudio estadístico, algo parecido a un delito de lesa matemática. Por desgracia, no siempre es fácil distinguir un caso del otro.

Veamos primero un ejemplo ya tradicional con resultado conocido. La primera encuesta electoral telefónica de la historia se realizó en 1933 en EEUU. En esa encuesta se predecía una victoria del candidato republicano Hoover (candidato a la reelección), sin embargo ganó Roosevelt de manera aplastante, lo que conllevo la aplicación de la política económica del New Deal para luchar con la depresión del 29, contraria a la realizada hasta ese momento por el presidente Hoover. ¿Hay alguna explicación para este error? Sí, se produjo un claro sesgo, se pregunto mayoritariamente a votantes del partido republicano. Y como pista insisto en que la encuesta fue telefónica.

Respuesta: Muy fácil. Estamos en 1933, tras 4 años de Gran Depresión y medidas económicas equivocadas (estilo austericidio). Los teléfonos no eran baratos, por tanto, el hacer una encuesta telefónica en esa época era introducir un sesgo basado en la clase social a la que pertenecía el encuestado. No quedaba reflejada la opinión del 100% de la población, sino solo de los más ricos.

Ahora veremos un caso más reciente. En este artículo La escuela concertada refuerza los recursos por alumno en la pública se usan datos del ministerio de educación, sin facilitar las fuentes por desgracia, para concluir que las autonomías en las que el porcentaje de colegios privados y concertados es mayor  coinciden con las que gastan más en educación pública. Curiosamente para demostrar esto se escogen datos solo de 10 autonomías, y no de las 17 ¿Por qué? No parece que haya ninguna explicación.

En términos estadísticos lo que pretende probar esto es que existe una correlación entre el porcentaje en concertada y la inversión en pública, es decir a mayor porcentaje de una, mayor inversión en la otra. Si se representase en una gráfica veríamos una línea recta que sube de izquierda a derecha.

Si representamos los datos de las 10 autonomías escogidas se una línea claramente ascendente apoyando la conclusión mostrada en el titular.
 Pero, curiosamente si seleccionamos los datos de las otras 7 autonomías (algunas de tanto peso como Madrid o Cataluña) obtenemos una gráfica que parece indicar lo contrario.
Entonces, ¿a qué carta quedarnos? Ninguna de las dos parece concluyente. ¿No hay ninguna herramienta estadística que nos permita saber si algo es concluyente antes de hacer gráficas? Claro que sí, faltaría más. Se llama coeficiente de correlación lineal . Como se ve en la explicación de Wikipedia este número se mueve entre -1 y +1:
  • +1, entonces  la correlación en torno a una recta creciente.
  • -1, entonces la correlación en torno a una recta decreciente.
  • 0, no es posible llegar a ninguna conclusión. 
En este caso, los valores son:
  • Con todas las autonomías: 0,48
  • Sólo las seleccionadas por los autores del artículo: 0,84
  • Las demás autonomías: -0,86
Aquí hay una tabla en donde se clasifican lo seguro de una correlación a partir del valor este valor. Según esa tabla al conjunto de las autonomías le correspondería una correlación media, lo que parece que apoya, aunque sea parcialmente, la conclusión del artículo. Pero no olvidemos que en este escenario todas las autonomías entran con el mismo peso y quizás deberían tener más importancia las más pobladas (como Madrid o Cataluña) que están en el conjunto de las comunidades eliminadas del estudio.

Lo más importante: si queremos buscar la verdad no hay que colocar la conclusión delante de la investigación.

Hoja de cálculo con los datos, cálculos y gráficas: 

Fuentes de los datos usados:




martes, 23 de abril de 2013

Enigmas del Día del libro

Hoy he hecho una pregunta a mis alumnos y alumnas con éxito desigual. la pregunta es sencilla, pero a la vez embrollada. El truco está en saber exactamente que quieren decir las palabras:

Hoy es el día del libro porque en tal fecha como hoy, pero de hace unos cuantos años, exactamente el 23 de abril de 1616 murieron Cervantes y Shakespeare. Sin embargo, ambos genios murieron en días distintos con más de una semana de separación. ¿Cómo es posible? 

En una semana despejo la incógnita, para los que no sepan ya la respuesta.

Como he dicho a mis alumnos: leed algo hoy por ser el día del libro, pero sobre todo no dejéis de leer mañana porque no sea el día del libro.



Ya es hora de responder algo. ¡Cómo pasa el tiempo! Hora tras hora, día tras día, semana tras semana; aunque siempre es igual, los días son un poco distintos según se acerca el verano o el invierno pero al final todo se repite en el ciclo anual. Sin embargo frente  a este cambio monótono y cíclico los  seres humanos nos vemos en la necesidad de etiquetar el tiempo, empezando por los días. Estas etiquetas son las fechas presentes en los calendarios.

Los distintos calendarios abundan. Cada civilización ha tenido el suyo, y la nuestra varios. En el s. XVI se detecto que el calendario juliano, vigente desde los tiempos de julio Cesar, acumulaba un desfase respecto al año "real" (año solar)  de tal manera que el comienzo de la primavera ya no coincidía con el 21 de marzo, por eso se sustituyo por otro calendario más preciso llamado gregoriano, impulsado por el Papa Gregorio XIII. Este calendario fue adoptado inmediatamente por los países católicos (como España), pero tardó varios años en imponerse en otros países partidarios de la reforma o del rito ortodoxo. Por eso, el día que murió Cervantes en España con fecha 23 de abril del año de nuestro Señor de 1616 era 13 de abril en Inglaterra y aún faltaban 10 días para que Shakespeare muriese en Londres. Por tanto, ambos escritores murieron en la misma fecha, pero en distintos días.

Un par de detalles sobre el tiempo. El año solar dura exactamente (en la medida de nuestros conocimientos actuales)  365,242 190 402 días solares medios, o sea, 365 d 5 h 48 m 45.25 s.

El año calculado para establecer el calendario  juliano duraba 365,25 días solares, o sea, 365 días y 6 h. Por eso, en el calendario juliano se añadía un día cada cuatro años (el año bisiesto) . Esta corrección no fue suficiente para mantener los días en su sitio durante 15 siglos.

El año solar gregoriano dura 365,2425 días solares, si convertimos este número decimal en fracciones se verá muy claro los trucos del calendario gregoriano para mantenernos dentro del redil del tiempo.

365,2425 = 365 + 1 4 1 100 + 1 400 365,2425 = 365 + 1 

Los años duran 365 días, pero cada 4 años añadimos un día (+1/4), no lo añadimos si el año acaba en 00 (-1/100), pero sí lo añadimos si es múltiplo de 400 (+1/400) . Por eso el año 2000 fue bisiesto, aunque el año 1900 no lo fue.

Con estos cálculos (que no coinciden con el año solar, la diferencia es de 0,000310598 días) habrá que empezar a preocuparse por el desfase de un día dentro de 3.300 años.

martes, 16 de abril de 2013

CosmoCaixa: Fin de semana matemático

Para mis alumnos y alumnas en particular, y en general para todo el público que vaya a pasar por Madrid este fin de semana.

A partir del viernes 19 de abril CosmoCaixa Madrid celebra Fin de semana matemático: talleres, exposiciones, ...
En el siguiente enlace podréis encontrar la programación del evento. 
 Aprovechad antes de que se lleven CosmoCaixa este 31 de diciembre (fum, fum, fum) por recortes y apreturas diversas. No os confiéis demasiado, la condena a la desaparición ya ha tenido una moratoria, inicialmente CosmoCaixa se iba a ir de Madrid el próximo mes de julio (realmente próximo).

Siempre tendré la sensación de no haber ido el número suficiente de veces.

 En todo caso, una pena la desaparición de CosmoCaixa.  O tempora, o mores!

miércoles, 10 de abril de 2013

Qué poco se habla de cómo se reparte el dinero

En un artículo publicado la última semana en 20 minutos titulado El nivel de riqueza de cada madrileño baja en 1.559 euros de media desde el inicio de la crisis se puede ver como se tratan distintas magnitudes estadísticas.

En primer lugar se habla de la media, en este caso el PIB per capita madrileño en retroceso desde el comienzo de la crisis y su comparación con esta misma magnitud en otras regiones. La media suele ser un tema central en cualquier artículo en el que se usen estudios estadísticos. La media nos dice a cuánto tocaríamos si la riqueza de la región se repartiese equitativamente. Pero, ya sabemos que no es así.

Por otro lado en este artículo se consulta a un catedrático de economía que habla precisamente de la desigualdad en el reparto y su  aumento según avanza la crisis. Pero aunque se habla de ello, no se ofrece ningún dato numérico ni se compara con nada. Aún así, es mucho más de lo que suele aparecer en la prensa ya que lo habitual es la ausencia de parámetros que informan de la desigualdad en el reparto.

Quizás será porque el dinero siempre ha sido muy difícil de repartir.

¿Qué parámetros hay a nuestra disposición para medir la desigualdad en estadística? Es cierto que la desviación típica quizás sea demasiado abstracta para el común de los mortales, pero podría ser suficientemente intuitivo dar la mediana o el percentil 99 (esto tiene que ver con las famosas pancartas que aparecieron en la manifestaciones de EEUU "we are 99%") o el percentil 90 comparado con el percentil 10 ( p 90 p 10 p_90 over p_10 ) o el porcentaje de PIB en manos del 5% de la población más rico o el coeficiente de Gini. Será por opciones.

Un ejemplo del uso de alguno de estos medidores de desigualdad esta en "La doctrina del Shock" de Naomi Klein. En el último capítulo se dice que el 10% de la población más rica de Argentina pasó de controlar 12 veces más dinero que el 10% más pobre en 1970, a acumular 43 veces más dinero en 2002. Es decir,
p 90 p 10 ( 1970 ) = 12 p 90 p 10 ( 2002 ) = 43 p_90 over p_10 (1970) = 12 newline p_90 over p_10 (2002) = 43

En definitiva, incluso en artículos bienintencionados que pretenden dar algo más de información que otros, es difícil encontrar una visión completa desde el punto de vista matemático, más allá de la miopía de los valores medios.

jueves, 21 de marzo de 2013

La estadística, esa arma "letal"

“Hay tres clases de mentiras: La mentira, la maldita mentira y las estadísticas.”
—Mark Twain
  La estadística tiene mala fama porque gente con pocos escrúpulos y buenos conocimientos matemáticos engañan con trucos y mal uso de las matemáticas a personas con menos conocimientos de los necesarios para defenderse, mediante información incompleta o engañosa.

Al fin y al cabo, la estadística es una herramienta. Aprendamos a defendernos un poco de los ataques.

Uno de los trucos más básicos está en la presentación gráfica de los datos. Por ejemplo, estas dos gráficas representan los mismos datos, pero ¿a qué en la gráfica de la izquierda parece que la empresa ha tenido unos beneficios espectaculares el último año? 

Extraído de "El arte de presentar".
Más ejemplos consisten en la falta de ficha técnica en las encuestas de algún periódico, o el uso y abuso de magnitudes medias con ausencia de medidas de la dispersión de los datos (medida de la desigualdad).

Un caso impactante lo he leído en el libro de Naomi Klein "La doctrina del Shock" en el que se expone una carta abierta escrita por un exempleado del FMI llamado Davison L. Budhoo al director de esta organización. En el libro se dice lo siguiente sobre la carta:

"Budhoo exponía su argumento y acusaba al Fondo de emplear las estadísticas como armas «letales». Proporcionaba datos exhaustivos de cómo, siendo él un empleado del Fondo a mediados de los años ochenta, había participado en lo que se podía considerar como «negligencia estadística» para exagerar las cifras recogidas en los informes del FMI sobre Trinidad y Tobago, un país de gran riqueza petrolífera, con el único fin de dar la apariencia de que su economía era mucho menos estable de lo que en realidad era. Budhoo señalaba que el FMI había aumentado (hasta más del doble) la magnitud de una estadística fundamental que medía los costes laborales en el país para que éste pareciera tener un nivel de productividad pésimo, aun cuando, según decía, el Fondo disponía de la información correcta."

Buscad otros ejemplos de mal uso de la estadística y colgadlos en los comentarios.

sábado, 16 de marzo de 2013

Trabajo sobre estadística

Aquí encontraréis una presentación en la que se introducen algunos conceptos básicos de estadística usando como guión un trabajo sencillo basado en datos obtenidos de una clase de 3º de la E.S.O.



Estadística ESO from Faustino Lobo Fernández

Esta presentación os sirve como ejemplo para el trabajo sobre estadística. Aprovechad estos días para la dura tarea de recopilación de datos (preguntad a compañeros, vecinos, familiares, ...) . Si escogéis un variable cuantitativa será posible hacer los cálculos de media y desviación típica.

Cualquier pregunta o duda se puede dejar en los comentarios de esta entrada.

El trabajo se puede mandar en formato electrónico (Office o LibreOffice) a mi correo flobo@educa.madrid.org

martes, 5 de marzo de 2013

Ejercicios resueltos de probabilidad para 4º

Un archivo pdf con un folio de ejercicios resueltos típicos de probabilidad: espacio muestral, calculo de sucesos y probabilidad, unión, intersección, tablas de contingencia, experimentos compuestos dependientes e independiente,...

Ejercicios resueltos de probabilidad

PS.: Había un error aritmético en una tabla de contingencia que ya ha sido corregido. Le agradezco a mi alumno Héctor  Núñez que me señalara ese error.

Solución de los exámenes de 4º B. Polinomios y ecuaciones

Bueno aprovechando los blogs nos evitaremos más fotocopias. El examen con solución que os prometí está en formato pdf aquí:

Solución del examen de polinomios, ecuaciones e inecuaciones.

Y de propina la solución del anterior sobre trigonometría:

 Solución del examen de trigonometría