Principio: Fundamento, aseveración fundamental que permite el desarrollo de un
razonamiento o estudio científico.
1.
Principio de Relatividad:
En realidad no es porque "todo es
relativo", sino por el principio de relatividad. Galileo Galilei estableció el principio de relatividad por vez
primera. Era un principio de relatividad del movimiento:
"Todo
movimiento es relativo a un sistema de referencia"
Según esto
no podemos determinar si un objeto se mueve o no de modo rectilíneo y uniforme
si no tomamos primero un sistema de
referencia respecto al cual exista ese movimiento. Se puede resumir en un
principio de indeterminación del reposo absoluto, pues si pudiéramos determinar
que algo está en reposo absoluto, entonces ya tendríamos un sistema de referencia privilegiado al que referir
todos los demás movimiento y el principio de relatividad no sería válido.
2.
Principio de Localidad:
Sin esta
presunción no se podrían comprobar las leyes. En
física, el principio de localidad establece
que dos objetos suficientemente alejados uno de otro no pueden interactuar
directamente, de manera que cada objeto sólo puede ser influido por su entorno
inmediato. En palabras de Albert Einstein sobre este principio. La
siguiente idea caracteriza la independencia relativa de objetos que están muy
alejados uno de otro en el espacio (A y B): una influencia externa en A no
puede influir directamente sobre B;
esto es conocido como el principio de
acción local, y es empleado una y otra vez en teoría de campos. Si suprimiéramos
por completo este axioma, resultaría inviable la idea de la existencia de
sistemas semi-cerrados, y no podríamos postular leyes que se pudieran comprobar
experimentalmente en el sentido aceptado.
- Realismo local: Es la combinación del Principio de Localidad con la suposición de que: “Todos los objetos tienen sus propiedades antes de que las mismas sean observadas”. A Einstein le gustaba observar que la Luna está “ahí fuera” aunque nadie la esté observando.
- Interpretaciones Convencionales de la Mecánica Cuántica: Como la de Copenhague donde la función de onda no es real, la interpretación de mundos diversos y la basada en historias consistentes, se rechaza el “Realismo Local”. Las verdaderas propiedades definidas de un sistema físico no existen antes de la medición, y la función de onda es entendida como una herramienta matemática que permite calcular las probabilidades del resultado de los experimentos.
- La interpretación de Bohm: Busca preservar el “Realismo Local”, necesita violar el principio de localidad para lograr las correlaciones necesarias. De hecho, también debe violar el principio de casualidad, violando la teoría de la relatividad especial ya que requiere la propagación de señales reales con velocidades superiores a la de la luz.
3.
Principio de Inducción:
Cualquiera sea la forma en que se entienda la
inducción, siempre se encontrara que parte de un presupuesto o principio.
- Si de algunos pasamos a todos, es porque creemos que el curso de la naturaleza es uniforme.
- Si del hecho pasamos a su forzosidad, es que creemos que nada de lo que sucede en la naturaleza hubiera podido no suceder, es decir que en la naturaleza todo está determinado.
- Si del hecho pasamos a la ley es porque creemos que la naturaleza, toda, obedece a leyes y en todo hecho se expresa una ley.
Regularidad de la naturaleza, determinismo,
legalidad; esos son los tres principios presupuestos por la inducción. Esos
tres principios pueden ser reducidos al último, ya que en los tres se trata de
la afirmación de la existencia de relaciones invariables.
Suponemos que la realidad está regida por leyes que
son siempre las mismas, y por eso buscamos las leyes que rigen los hechos de la
realidad. Ese principio es indemostrable. Pero no es evidente en sí, mismo. La
realidad podría no estar regida por leyes; pero si no admitimos que está regida
por leyes no podemos intentar conocerla científicamente, pues la ciencia
consiste en la búsqueda de relaciones invariables.
·
Critica Contemporánea:
La inducción no es nada más que un acto de
adivinación metódicamente dirigido. Para
demostrar la falacia de la inducción se invocan ejemplos como el de las
gallinas que ante la aparición de una persona acuden a recibir el alimento que
se les ha venido dando diariamente; pero un día en vez de recibir el alimento,
son atrapadas y degolladas.
Lachelier critico el razonamiento inductivo,
considerándolo insuficiente para la explicación de lo real. Para Lachelier el
efecto contiene algo más o más complejo que la causa, esa explicación sería
insuficiente; ya que habría que completarla con la explicación por las causas
finales, entendiendo a la realidad también como un proceso sujeto a planes, o
sea a una persecución de objetivos.
·
Matemática de vanguardia gracias a la Analogía:
En matemática, la semejanza de las figuras permite concluir la
posibilidad de sus transformaciones comunes; y es por analogía que se extienden
a los números fraccionarios, y después a los negativos, etc., las leyes de las
operaciones fundamentales solo aplicadas al principio a los números enteros. “La invención en matemática está fundada en
la analogía y no en la deducción”. Es la analogía y no la deducción la que
permite pasar de un espacio euclidiano a los espacios no euclidianos y hablar
de espacios de n dimensiones.
§ Analogía:
Relación de semejanza entre cosas distintas. Método por el que una regla
de ley o de derecho se extiende, por semejanza, a casos no comprendidos en
ella.
·
La Inducción enriquece al contrario que la Deducción:
Si expreso el juicio inductivo “Todas las S son P”, la inferencia deductiva inmediata que puedo
sacar de ella, es que “Algunas P son S”;
y si convierto este último juicio obtengo deductivamente que “Algunas S son P”. O sea que la
deducción ha empobrecido nuestro conocimiento de “Todas las S son P”, hemos obtenido que “Algunas S son P”. Claro que la inducción acarrea siempre el
problema de que “¿Con que derecho
afirmamos más que lo que sabemos?”, o sea ¿con que derecho decimos que si algunos cuerpos caen en el vacío con la
misma velocidad, todos caen en el vacío a la misma velocidad? Y ¿con que
derecho extendemos esa afirmación al pasado y al futuro?
Desde el punto de vista de la lógica sabemos que un
juicio en particular no permite inferir un juicio universal: ni de algunos
podemos pasar a todos, ni de lo que sucede a lo que forzosamente ha de suceder,
ni de las relaciones en que consiste un hecho a las relaciones invariables en
que consiste una ley.
4.
Principio de Causalidad:
El principio de causalidad, postula
que: todo
efecto – suceso –, debe tener siempre una causa. No debemos
confundirlo, con el principio de
uniformidad que postula que: en idénticas circunstancias, una causa tendrá siempre un
mismo efecto.
Entonces, puesto que: todo efecto remite a una causa; de encontrarse algún efecto que no sea remitido a causa alguna, éste quedara limitado.
Entonces, puesto que: todo efecto remite a una causa; de encontrarse algún efecto que no sea remitido a causa alguna, éste quedara limitado.
·
El Problema de la Causalidad: (reitero,
Hume equivoco el principio de su crítica, debió ser el de uniformidad – y en ello, su crítica queda, a lo menos,
problematizada –)
Cuando un acontecimiento
continuamente sucede tras otro, la mayoría de la gente piensa que una conexión
entre ambos acontecimientos hace que el segundo suceda al primero. Hume desafió a esta creencia en su primer libro Tratado de la
naturaleza humana y más tarde en su Investigación sobre el entendimiento
humano. Se dio cuenta de que aunque percibimos que un elemento suceda al otro,
no percibimos ninguna condición necesaria y suficiente entre los dos. Y de
acuerdo con su epistemología escéptica, sólo podemos confiar en el conocimiento
que adquirimos a través de nuestras percepciones. Hume declaró que nuestra idea de causalidad consiste en poco más que la
esperanza de que ciertos acontecimientos se den tras otros que los preceden, «No
tenemos otra noción de causa y efecto, excepto que ciertos objetos siempre han
coincidido, y que en sus apariciones pasadas se han mostrado inseparables. No podemos
penetrar en la razón de la conjunción. Sólo observamos la cosa en sí misma, y
siempre se da que la constante conjunción de los objetos adquiere la unión en
la imaginación». En realidad no podemos decir que un acontecimiento causó al
otro. Todo lo que sabemos es con seguridad que un acontecimiento está
correlacionado con el otro. Para describir esto, acuñó el término conjunción
constante. Que consiste en que cuando
vemos cómo un acontecimiento siempre causa otro lo que en realidad estamos
viendo es que un acontecimiento ha estado siempre en conjunción constante con
el otro. En consecuencia, no tenemos ninguna razón para creer que el
primero causó al segundo, o que continuarán apareciendo siempre en conjunción
constante en el futuro. La razón por la
que presentamos este comportamiento no es que la causa-efecto sea el
comportamiento de la naturaleza, sino los hábitos de la psicología humana.
Esta concepción le quita toda la fuerza a la causación, y otros humanos
posteriores, como Bertrand Russell han desechado la misma noción de causación
aduciendo que es un tipo de superstición. Pero esto desafía al sentido común,
creando el problema de la causación – ¿Qué justifica nuestra confianza en la
existencia de una conexión causal y de qué clase de conexión podemos saber?
– un problema para el que no se ha encontrado solución. Hume sostuvo que tanto
nosotros como otros animales tenemos una tendencia instintiva a creer en la
causación debido al desarrollo de hábitos de nuestro sistema nervioso, una
creencia que no podemos eliminar, pero que no podemos probar mediante ningún
argumento, deductivo o inductivo.
·
El Problema de la Inducción:
Hume articuló su tesis de que todo el razonamiento
humano pertenece a dos clases, Relaciones de ideas y hechos. Mientras que las primeras
involucran conceptos abstractos como las matemáticas y están gobernadas por las
certezas deductivas, los segundos comportan la experiencia empírica donde todos
los razonamientos son inductivos. Dado que de acuerdo con Hume no podemos
conocer nada de la naturaleza con anterioridad a la experimentación, incluso un
hombre racional sin experiencia «no podría haber inferido de la transparencia y
la fluidez del agua que sofocaría su sed, o a partir de la luz y el calor del
fuego que le consumiría» Así que todo lo que podemos decir, pensar o predecir
de la naturaleza debe venir de la experiencia previa, lo que lleva a la
necesidad de la inducción. La inferencia
inductiva presupone que se puede confiar en los actos pasados como regla a
partir de la que se puede predecir el futuro. Por ejemplo, si en el pasado
ha llovido el 60% del tiempo cuando se dan unas condiciones atmosféricas
determinadas, entonces en el futuro probablemente lloverá un 60% del tiempo si
se dan las mismas condiciones. Pero aún queda el problema de cómo justificar
tal inferencia, conocida como el principio de inducción. Hume sugirió dos
posibles justificaciones, que sin embargo rechazó.
1. La primera justificación
descansa en la suposición, tomada como una necesidad lógica, de que el futuro
debe de parecerse al pasado. Pero Hume puntualiza que
podemos concebir un mundo caótico y errante en el que el futuro no tiene nada
que ver con el pasado – o un mundo como el nuestro hasta el presente, que
llegado a un punto cambia totalmente. Así que nada hace que el principio de
inducción sea una necesidad lógica.
2. La segunda justificación,
más modesta, apela a los éxitos anteriores de la inducción – en el pasado ha funcionado en la
mayoría de las ocasiones, así que probablemente seguirá haciéndolo en el futuro.
Pero, como Hume comenta, esta justificación hace uso del razonamiento circular
en un intento de justificar la inducción mediante la reiteración, lo que nos
devuelve al punto de partida.
A pesar de la crítica de Hume a la inducción,
sostuvo que era superior a la deducción en el reino del pensamiento empírico.
Tal y como declara: «esta operación de la mente, por la que podemos inferir los
efectos de las causas y viceversa, es esencial para la subsistencia de todas
las criaturas humanas, es probable que pueda confiarse más en ella que en las
falacias de la deducción de nuestra razón, que es lenta en sus operaciones; no
aparece en los primeros años de la infancia; y como mucho es, en cualquier edad
y periodo de la vida humana, extremadamente proclive al error.
5.
Principio de Parsimonia:
La navaja de Occam (navaja de Ockham o principio de
economía o de parsimonia) hace referencia a un tipo de razonamiento basado en
una premisa muy simple: en igualdad de condiciones la solución más sencilla es probablemente la correcta. El
postulado es: “No
ha de presumirse la existencia de más cosas que las absolutamente necesarias”.
El principio de la Navaja de Occam se utiliza
fundamentalmente como complemento de las leyes de la lógica, con el fin de
evitar el pensamiento mágico. Según este principio, siempre que se encuentren
varias explicaciones a un fenómeno, se debe escoger la más sencilla que lo
explique por completo.
6.
Principio de Falsabilidad:
El principio de falsabilidad exige que una teoría científica de predicciones se pueda falsar, es
decir, que se puedan comprobar. Lo que no exige es que sean comprobables
con nuestro nivel de tecnología, sino que sean comprobables en general.
- Criterio de Demarcación:
El criterio de demarcación o problema de
demarcación se refiere, dentro de la filosofía de la ciencia, a la cuestión de
definir los límites que deben configurar el concepto "ciencia". Las
fronteras suelen establecerse entre lo que es conocimiento científico y no
científico, entre ciencia y pseudociencia, y entre ciencia y religión. El
planteamiento de este problema conocido como problema generalizado de la
demarcación abarca estos tres casos. El problema generalizado, en último término, lo que intenta es
encontrar criterios para poder decidir, entre dos teorías dadas, cuál de ellas
es más "científica". El teórico del criterio de demarcación, Karl
Popper, consideró que sistemas tan conocidos y universalmente aplicados como el
psicoanálisis, de Sigmund Freud, y el materialismo dialéctico de Karl Marx,
incurrían, en errores de concepto y método que autorizaban a incluirlos, según
sus tesis, dentro de la categoría de pseudociencia. Posteriormente, Feyerabend sostuvo, con Imre Lakatos, que
el problema de demarcación de distinguir por razones objetivas la ciencia de la
pseudociencia es irresoluble y, por lo tanto fatal para la idea de la
ciencia de acuerdo a un correr fijo y universal de normas.
a)
Popper propuso
el Falsacionismo como una forma de determinar si una teoría es
científica o no. Simplificando, se podría decir que si una teoría es
falsable, entonces es científica; si no es falsable, entonces no es
ciencia. Algunos han llevado este principio hasta el extremo de dudar
de la validez científica de muchas disciplinas (tales como la macroevolución y
la cosmlogía).
- El Falsacionismo:
El falsacionismo, refutacionismo o principio de
falsabilidad es una corriente epistemológica fundada por el filósofo austríaco
Karl Popper. Para Popper constatar una
teoría significa intentar refutarla mediante un contraejemplo. Si no es posible
refutarla, dicha teoría queda corroborada, pudiendo ser aceptada
provisionalmente, pero nunca verificada. Dentro del falsacionismo
metodológico, se pueden diferenciar el falsacionismo ingenuo inicial de Popper
y el falsacionismo sofisticado de la obra tardía de Popper y la metodología de
los programas de investigación de Imre Lakatos. El problema de la inducción nace del hecho de que nunca podremos
afirmar algo universal a partir de los datos particulares que nos ofrece la
experiencia. Por muchos millones de cuervos negros que veamos nunca
podremos afirmar que "todos los cuervos son negros". En cambio si
encontramos un solo cuervo que no sea negro, si podremos afirmar "No todos
los cuervos son negros". Por esa razón Popper introduce como criterio de
demarcación científica el falsacionismo. Popper en realidad rechaza el
verificacionismo como método de validación de teorías. La tesis central de Popper es que no puede haber enunciados científicos
últimos, es decir, que no puedan ser contrastados o refutados a partir de la
experiencia. La experiencia sigue siendo el método distintivo que
caracteriza a la ciencia empírica y la distingue de otros sistemas teóricos. Para Popper la racionalidad científica no
requiere de puntos de partida incuestionables, pues no los hay. El asunto es
cuestión de método. Aunque la ciencia es inductiva, en primera instancia,
el aspecto más importante es la parte deductiva. La ciencia se caracteriza por
ser racional, y la racionalidad reside en el proceso por el cual sometemos a la
crítica y reemplazamos nuestras creencias. Frente al problema de la inducción
Popper propone una serie de reglas metodológicas que nos permiten decidir
cuándo debemos rechazar una hipótesis. Popper propone un método científico de
conjetura por el cual se deduce las consecuencias observables y se ponen a
prueba. Si falla la consecuencia, la hipótesis queda refutada y debe entonces
rechazarse. En caso contrario, si todo es comprobado, se repite el proceso
considerando otras consecuencias deducibles. Cuando una hipótesis ha sobrevivido a diversos intentos de refutación
se dice que está corroborada, pero esto no nos permite afirmar que ha quedado
confirmada definitivamente, sino sólo provisionalmente, por la evidencia
empírica.
- Verificacionismo:
El verificacionismo
es el término que se usa por oposición al falsacionismo. Si en este último lo
que se busca es el hecho observacional que pueda anular la hipótesis inicial (y
si no se encuentra, la hipótesis se refuerza de algún modo), en el
verificacionismo se considera que han de añadirse hechos observacionales que
corroboren la hipótesis, con lo que ésta queda consolidada.
7.
Interpretación de la Mecánica Cuántica:
Según la interpretación más extendida de la
mecánica cuántica sugiere que todo es incierto hasta que lo observamos, y que
la observación inevitablemente altera la realidad (otra posibilidad que se está
estudiando es la Teoría de la Medición Débil.
- El Problema de la Medida: En mecánica cuántica el proceso de medición altera de forma “incontrolada” la evolución del sistema. Constituye un error pensar dentro del marco de la física cuántica que medir es revelar propiedades que estaban en el sistema con anterioridad. La información que nos proporciona la función de onda es la distribución de probabilidades, con la cual se podrá medir tal valor de tal cantidad. Cuando medimos ponemos en marcha un proceso que es indeterminable a priori, lo que algunos denominan azar, ya que habrá distintas probabilidades de medir distintos resultados.
- La Paradoja de Hardy:
Nos propone que puesto que nosotros no podemos
influir sobre el pasado, al no poderlo modificar, no tiene sentido hablar del pasado ya que
no podemos conocerlo puesto que de acuerdo con la teoría cuántica: “Conocer implica cambiar, modificar”.
§ Teoría de la
Medición Débil:
La medida débil es una herramienta por la cual la presencia de un detector es menor que el
nivel de incertidumbre alrededor de lo que se está midiendo, por lo que existe
un impacto imperceptible en el experimento. “Encontramos que las conclusiones
aparentemente paradójicas en la Paradoja de Hardy Paradox pueden, de hecho,
verificarse experimentalmente”, dijo Steinberg, “dado que el uso de la medida
débil elimina la contradicción”. “Hasta hace poco parecía imposible llevar a
cabo la propuesta de Hardy, muchos menos confirmar o resolver la paradoja”,
añade. “Por fin hemos sido capaces de hacerlo y aplicar los métodos de Aharonov
al problema, demostrado que existe una forma, incluso en la mecánica cuántica,
en la que se puede discutir de forma bastante consistente eventos pasados
incluso después de que hayan concluido. La medida débil encuentra lo que hay
allí sin perturbarlo”.
- Principio de Superposición Cuántica:
Superposición cuántica es la aplicación del principio de superposición a la mecánica cuántica.
Ocurre cuando un objeto "posee simultáneamente" dos o más valores de
una cantidad observable (Ej. la posición o la energía de una partícula). Más
específicamente, en mecánica cuántica, cualquier cantidad observable
corresponde a un autovector de un operador lineal hermético. La combinación
lineal de dos o más autovectores da lugar a la superposición cuántica de dos o
más valores de la cantidad. Si se mide la cantidad, el postulado de proyección
establece que el estado colapsa aleatoriamente sobre uno de los valores de la
superposición (con una probabilidad
proporcional al cuadrado de la amplitud de ese autovector en la combinación
lineal). Inmediatamente después de la medida, el estado del sistema será el
autovector que corresponde con el autovalor medido.
- Ecuación de Schrödinger:
Las soluciones a estas ecuaciones se conocen como funciones de onda, dado que son
inherentemente ondulatorias en su forma. Pueden difractarse e interferirse
consigo misma, llevándonos a los efectos ondulatorios ya observados.
Además, las funciones de onda se interpretan como descriptores de la
probabilidad de encontrar una partícula en un punto del espacio dado. Quiere
decirse esto que si se busca una
partícula, se encontrará una con una probabilidad dada por la raíz cuadrada de
la función de onda. En el mundo macroscópico no se observan las propiedades
ondulatorias de los objetos dado que dichas longitudes de onda, como en las
personas, son demasiado pequeñas. La longitud de onda se da, en esencia, como
la inversa del tamaño del objeto multiplicada por la constante de Planck h,
un número extremadamente pequeño.
- El Gato de Schrödinger:
Schrödinger nos propone un sistema formado por una
caja cerrada y opaca que contiene un gato, una botella de gas venenoso,
una partícula radiactiva con un 50% de probabilidades de
desintegrarse en un tiempo dado y un dispositivo tal que, si la partícula se
desintegra, se rompe la botella y el gato muere.
Al depender todo el sistema del estado final de un
único átomo que actúa según las leyes de la mecánica cuántica, tanto la
partícula como la vida del gato estarán sometidas a ellas. De acuerdo a dichas
leyes, el sistema gato-dispositivo no puede separarse en sus componentes
originales (gato y dispositivo) a menos que se haga una medición sobre el
sistema. El sistema gato-dispositivo está en un entrelazamiento.
§ Según
la Interpretación de Copenhague:
Mientras no abramos la caja, el sistema, descrito
por una función de onda, tiene aspectos de un gato vivo y aspectos de un gato
muerto, por tanto, sólo podemos predicar sobre la potencialidad del estado
final del gato y nada del propio gato. En el momento en que abramos la caja, la
sola acción de observar modifica el estado del sistema tal que ahora observamos
un gato vivo o un gato muerto. Esto se debe a una propiedad física llamada superposición
cuántica que explica que el comportamiento de las partículas a nivel
subatómico no puede ser determinado por una regla estricta que defina su
función de onda. La física cuántica postula que la pregunta sobre la vida del
gato sólo puede responderse probabilísticamente.
La paradoja ha sido objeto de gran controversia
(tanto científica como filosófica), al punto que Stephen Hawking ha dicho: «cada
vez que escucho hablar de ese gato, empiezo a sacar mi pistola»,
aludiendo al suicidio cuántico, una variante del experimento de
Schrödinger.
§ Suicidio
Cuántico:
El experimento supone un hombre sentado con un arma
que apunta hacia su cabeza. El arma es manipulada por una máquina que mide la
rotación de una partícula subatómica. Cada vez que el hombre apriete el
gatillo el arma se disparará dependiendo del sentido de la rotación de la
partícula: Si gira en sentido horario el arma dispara, en sentido contrario no
lo hace.
Según la interpretación de Copenhague, con cada
ejecución del experimento existe un 50 % de posibilidad de que el arma sea
disparada y el hombre muera: finalmente el experimentador morirá.
ü Postulado de
Sucesos: (Licencia del autor)
La teoría de los universos múltiples, por su parte,
plantea que cada ejecución del experimento divide el universo en dos: uno en
que el hombre vive y otro mundo en que muere.
Después de muchas series de la prueba, habrá muchos
universos. En todos ellos menos en uno el hombre dejará de existir, pero siempre habrá un universo donde siga
existiendo (claro dependiente del “Postulado de Sucesos”). Desde el punto de
vista del hombre, por mucho que apriete el gatillo del arma nunca se disparará,
toda vez que su conciencia seguirá existiendo en muchos de los universos. Esto
último es lo que se denomina “Inmortalidad cuántica”.
- Principio de Incertidumbre:
En mecánica cuántica, la relación de indeterminación de Heisenberg afirma que no se puede
determinar, simultáneamente y con precisión arbitraria, ciertos pares de
variables físicas (magnitudes complementarias), como son, por ejemplo, la
posición y el momento lineal (cantidad de movimiento) de un objeto dado
(magnitudes complementarias). En otras palabras, cuanta mayor certeza se busca
en determinar la posición de una partícula, menos se conoce su cantidad de
movimiento lineal. Este principio fue enunciado por Werner Heisenberg en 1927.
- Coherencia Cuántica:
El comportamiento físico de los bosones resulta
ser el contrario de los fermiones. Tienden a ser bosones las partículas más
primigenias. Los fotones son así el ejemplo paradigmático de los bosones.
No existe principio de exclusión para ellos y su tendencia es a estar en el
mismo estado (en las propiedades vibratorias u ondulatorias de su función de
onda). Esta "convergencia" de los bosones conduce, por ejemplo en un
caso máximo, a un estado de concentración en un mismo estado simple que se
conoce como condensación de Bose-Einstein (en la base de la
tecnología del láser y en la explicación de fenómenos de superconductividad).
En general pueden producirse variadas interacciones entre masas de bosones para
entrar en estados globales de vibración unitaria que conocemos como estados de
coherencia cuántica. Pero, así como los fermiones tienden a mantener su
individualidad ondulatoria (principio de exclusión), los bosones tienden a
constituir estados físicos donde la individualidad se diluye en estados
cuánticos de conjunto para grandes masas con funciones de onda simétricas.
- Decoherencia:
En la
mecánica cuántica las partículas son tratadas como ondas que se comportan según
la ecuación de Schrödinger. De este modo, este comportamiento entra en
contradicción con la mecánica clásica donde es bien sabido que las partículas
no presentan fenómenos típicos de las ondas como la interferencia. Cómo es
posible que las partículas cuánticas formen cuerpos más grandes que se
comportan de manera clásica es un fenómeno que se conoce como decoherencia
cuántica.
Este
término está íntimamente ligado con la computación cuántica, ya que la
decoherencia de los qubits representa un problema. Se basa en que los sistemas
físicos no residen aislados sino que interactúan con otros, y esta interacción
es la que provoca que se deshagan los estados de superposición de los qubits
(mientras no interactúe, es un sistema coherente, es decir, se encuentra en una
indefinida superposición de estados). A este intervalo de pérdida de coherencia
se le asocia que lo que esencialmente es un sistema cuántico lo podamos
describir por medio de variables clásicas.
La
decoherencia se debe al acoplamiento del qubit con el entorno (ordenador
cuántico). En consecuencia el qubit debe considerarse como un sistema abierto.
El acoplamiento del qubit y el ordenador cuántico produce un entrelazamiento
entre ambos sistemas que modifica el qubit de forma, a priori, incontrolable.
Generalmente se asume que una vez que el qubit ha perdido la coherencia la
computación completa falla y, en consecuencia, los resultados que se obtienen
no son correctos. En el modelo de computación cuántica los cálculos se realizan
aplicando transformaciones unitarias al qubit.
Sin
embargo esto sólo se cumple de forma aproximada ya que, debido al acoplamiento
entre los dos sistemas, la evolución del qubit generalmente no es unitaria.
8.
Principio de Superposición (Interferencia):
El principio de superposición
de ondas establece que la magnitud del
desplazamiento ondulatorio en cualquier punto del medio es igual a la suma de
los desplazamientos en ese mismo punto de todas las ondas presentes. Esto
es consecuencia de que la Ecuación de onda es lineal, y por tanto si existen
dos o más soluciones, cualquier combinación lineal de ellas será también
solución.
9.
Principio de Dualidad (Onda-Partícula):
La dualidad
onda-corpúsculo, también llamada dualidad
onda-partícula, resolvió una aparente paradoja, demostrando que la luz
puede poseer propiedades de partícula y propiedades ondulatorias. De acuerdo
con la física clásica existen diferencias entre onda y partícula. Una partícula
ocupa un lugar en el espacio y tiene masa mientras que una onda se extiende en
el espacio caracterizándose por tener una velocidad definida y masa nula.
- Toda la materia presenta características tanto ondulatorias como corpusculares comportándose de uno u otro modo dependiendo del experimento específico (De Broglie).
- Actualmente se considera que la dualidad onda-partícula es un concepto de la mecánica cuántica según el cual no hay diferencias fundamentales entre partículas y ondas: las partículas pueden comportarse como ondas y viceversa.
10.
Determinismo Científico:
El
determinismo científico es un paradigma científico que considera que a pesar de
la complejidad del mundo y su impredictibilidad práctica el mundo físico
evoluciona en el tiempo según principios o reglas totalmente predeterminadas y
el azar es sólo un efecto aparente.
- Determinismo Fuerte:
El determinismo
fuerte sostiene que no existen sucesos genuinamente aleatorios o azarosos,
y en general el futuro es potencialmente predecible a partir del presente
(aunque lógicamente predictibilidad y determinación son independientes, ya que
la primera requiere además cierto tipo de conocimiento de las condiciones
iniciales).
- Determinismo Débil:
El determinismo
débil sostiene que es la probabilidad lo que está determinado por los
hechos presentes, o que existe una fuerte correlación entre el estado presente
y los estados futuros, aun admitiendo la influencia de sucesos esencialmente
aleatorios e impredecibles.
Bien,
vamos a empezar con lo que es un modelo cientifico. Bueno pues un modelo
científico, a groso modo, es una representación abstracta y matematizada de
algún suceso de la realidad. Por ejemplo, un movimiento en un plano, tiene una
ecuación, que es la que lo modela. El aumento de número de unas determinadas
bacterias, sigue una determinada ecuación, que lo determina y modela. Y así con
infinidad de procesos. De hecho casi cualquier proceso se puede modelar
matemáticamente.
Bien,
pues hay tres maneras fundamentales de hacer un modelo científico.
- Utilizando ecuaciones diferenciales. Modelar cualquier sistema físico, químico, real, económico, etc.; requiere la utilización de tan grandioso e intrincado invento.
- Utilizando la teoría de la probabilidad. Asignando probabilidades a sucesos, e intentando hacer una inferencia para predecir el comportamiento de un determinado sistema.
- Haciendo una mezcla de las dos anteriores formas.
...