Displaying items by tag: logica - Tus Tareas

El pensamiento ético del siglo XX. stars

Entre las teorías éticas debatidas en la primera mitad del siglo XX. fueron el instrumentalismo , por el cual la moral se encuentra dentro del individuo y es relativa a la experiencia del individuo; el emotivismo , donde las consideraciones éticas son meras expresiones de los deseos subjetivos del individuo; e intuicionismo , que postula una conciencia inmediata de lo moralmente bueno. 

Coincidiendo con Moore en que lo moralmente bueno es aprehendido directamente a través de la intuición, los intuicionistas deontológicos continuaron distinguiendo entre el bien y el derecho y argumentaron que las obligaciones morales son intrínsecamente convincentes, ya sea que su cumplimiento resulte en un bien mayor o no.

Importantes teorías éticas desde mediados del siglo XX. han incluido el prescriptivismo de RM Hare, quien ha comparado los preceptos morales con los mandamientos, una diferencia crucial entre ellos es que los preceptos morales pueden aplicarse universalmente. En sus argumentos a favor de la ética de la virtud, Alasdair C. MacIntire advirtió contra el individualismo desenfrenado y defendió los correctivos extraídos de la discusión de Aristóteles sobre la virtud moral como la media entre los extremos. 

Thomas Nagel ha sostenido que, en la toma de decisiones morales, la razón reemplaza al deseo, por lo que resulta racional elegir el altruismo por encima de un interés propio estrechamente definido.

Lógica: razonamiento inductivo stars

En el siglo XIX. John Stuart Mill notó la misma dicotomía entre las generalizaciones del hombre y las instancias de la naturaleza, pero avanzó hacia una conclusión diferente. Mill sostuvo que el científico o experimentador no está interesado en pasar del caso general al caso específico, que caracteriza la lógica deductiva, sino que se preocupa por el razonamiento inductivo, pasando de lo específico a lo general .

Por ejemplo, la afirmación de que el sol saldrá mañana no es el resultado de un proceso deductivo en particular, sino que se basa en un cálculo psicológico de probabilidad general basado en muchas experiencias pasadas específicas. La principal contribución de Mill a la lógica se basa en sus esfuerzos por formular reglas de lógica inductiva. Aunque desde las críticas a David Hume ha habido desacuerdos sobre la validez de la inducción, los lógicos modernos han argumentado que la lógica inductiva no necesita justificación más que la lógica deductiva. 

El problema real es establecer reglas de inducción, tal como Aristóteles estableció reglas de deducción.

Lógica aristotélica stars

En el pensamiento occidental, se considera que la lógica sistemática comenzó con la colección de tratados de Aristóteles,  Organon . Ariastoteles introdujo el uso de variables: mientras que sus contemporáneos ilustraron los principios mediante el uso de ejemplos, Aristóteles generalizó, como en: Todos los x son y; todos y son z; por lo tanto, todas las x son z. Aristóteles postuló tres leyes como básicas para todo pensamiento válido: la ley de identidad, A es A; la ley de la contradicción, A no puede ser tanto A como no A; y la ley del medio excluido, A debe ser A o no A.

Aristóteles creía que cualquier argumento lógico podía reducirse a una forma estándar, conocida como silogismo . Un silogismo es una secuencia de tres proposiciones: dos premisas y la conclusión. 

Al variar la forma de la proposición y los modificadores (como todos, no y algunos ), se pueden delimitar algunas formas específicas. 

Aunque Aristóteles estaba preocupado por los problemas en la lógica modal y otras ramas menores, generalmente se acepta que su mayor contribución en el campo de la lógica fue su elaboración de la lógica silogística; de hecho, la afirmación aristotélica de la lógica prevaleció en el mundo occidental durante 2.000 años. No obstante, varios lógicos, durante ese tiempo, tuvieron problemas con partes del pensamiento de Aristóteles.

Definicion de Silogismo stars

Es un modo de argumentación que forma el núcleo del cuerpo del pensamiento lógico occidental.Aristóteles definió la lógica silogística, y se pensó que sus formulaciones eran la última palabra en lógica; sufrieron solo revisiones menores en los siguientes 2.200 años. Cada silogismo es una secuencia de tres proposiciones, de modo que las dos primeras implican la tercera, la conclusión. 

Hay tres tipos básicos de silogismo: hipotético, disyuntivo y categórico. El silogismo hipotético, modus ponens, tiene como primera premisa una hipótesis condicional: si p entonces q; continúa: p, por lo tanto q. El silogismo disyuntivo, modus tollens, tiene como primera premisa una declaración de alternativas: p o q; continúa: no q, por lo tanto p. 

El silogismo categórico comprende tres proposiciones categóricas, que deben ser declaraciones de la forma en que todas las x son y, ninguna x es y, alguna x es y o alguna x no es y. Un silogismo categórico contiene precisamente tres términos: el término principal, que es el predicado de la conclusión; el término menor, el sujeto de la conclusión; y el término medio, que aparece en ambas premisas pero no en la conclusión así: Todos los filósofos son hombres (término medio); todos los hombres son mortales por lo tanto, todos los filósofos (término menor) son mortales (término mayor). 

Las premisas que contienen los términos mayor y menor se denominan premisas mayor y menor, respectivamente. Aristóteles observó cinco reglas básicas que gobiernan la validez de los silogismos categóricos: el término medio debe distribuirse al menos una vez (se dice que un término se distribuye cuando se refiere a todos los miembros de la clase denotada, ya que en todas las x son y y no x es y ); un término distribuido en la conclusión debe ser distribuido en la premisa en que ocurre; dos premisas negativas no implican una conclusión válida; si una premisa es negativa, entonces la conclusión debe ser negativa; y dos afirmativas implican una afirmativa. 

John Venn, un lógico inglés, en 1880 introdujo un dispositivo para analizar los silogismos categóricos, conocido como el diagrama de Venn. Se dibujan tres círculos superpuestos para representar las clases denotadas por los tres términos. Las proposiciones universales ( todas las x son y, no x es y ) se indican sombreando las secciones de los círculos que representan las clases excluidas. 

Las proposiciones particulares ( algunas x son y, algunas x no son y ) se indican colocando alguna marca, generalmente una X, en la sección del círculo que representa la clase cuyos miembros están especificados. La conclusión se puede leer directamente del diagrama.

¿ Que es la Ley asociativa? stars

La ley asociativa, en matemáticas, es la ley que sostiene que para una operación dada que combina tres cantidades, dos a la vez, el emparejamiento inicial es arbitrario; por ejemplo, utilizando la operación de suma, los números 2, 3 y 4 pueden combinarse (2 + 3) + 4 = 5 + 4 = 9 o 2+ (3 + 4) = 2 + 7 = 9. 

Más generalmente, además, para cualquiera de los tres números a, b, y c, la ley asociativa se expresa como ( a + b ) + c = a + ( b + c ). 

La multiplicación de números también es asociativa, es decir, ( a × b ) × c = a × ( b × c ).

 En general, cualquier operación binaria, simbolizada por, que une las entidades matemáticas A, B y C obedece la ley asociativa si ( A ∘ B ) ∘ C = A ∘ ( B ∘ C ) para todas las opciones posibles de A, B, y C. No todas las operaciones son asociativas. 

Por ejemplo, la división ordinaria no lo es, ya que (60 ÷ 12) ÷ 3 = 5 ÷ 3 = 5/3, mientras que 60 ÷ (12 ÷ 3) = 60 ÷ 4 = 15. Cuando una operación es asociativa, se pueden omitir los paréntesis que indican qué cantidades se deben combinar primero, por ejemplo, (2 + 3) + 4 = 2 + (3 + 4) = 2 + 3 + 4.

¿Qué es la unión e interseccion de Conjuntos? stars

La unión de dos conjuntos A y B se define como el conjunto de elementos que pertenecen a A o B, o posiblemente a ambos. Simplemente se define como el conjunto de todos los elementos o miembros distintos, donde los miembros pertenecen a cualquiera de estos conjuntos. El operador de unión corresponde al OR lógico y está representado por el símbolo ∪. Es el conjunto más pequeño que contiene todos los elementos de ambos conjuntos. Por ejemplo, si el conjunto A es {1, 2, 3, 4, 5} y el conjunto B es {3, 4, 6, 7, 9}, entonces la unión de A y B se representa por A∪B y se escribe como {1, 2, 3, 4, 5, 6, 7, 9}. Como los números 3 y 4 están presentes en los conjuntos A y B, no hay necesidad de enumerarlos dos veces. Es evidente que el número de elementos de la unión de A y B es más pequeño que la suma de los conjuntos individuales, porque pocos números son comunes en ambos conjuntos.

A = {1, 3, 5, 7, 9}

B = {3, 6, 9, 12, 15}

A∪B = {1, 3, 5, 6, 7, 9, 12, 15}


La intersección de dos conjuntos A y B se define como el conjunto de elementos que pertenecen tanto a A como a B. Se define simplemente como el conjunto que contiene todos los elementos del conjunto A que también pertenecen al conjunto B, y de manera similar todos los elementos de el conjunto B pertenece al conjunto A. El operador de intersección corresponde al AND lógico y está representado por el símbolo ∩. Por el contrario, la intersección de dos conjuntos es el conjunto más grande que contiene todos los elementos comunes a ambos conjuntos. Por ejemplo, si el conjunto A es {1, 2, 3, 4, 5} y el conjunto B es {3, 4, 6, 7, 9}, entonces la intersección de A y B se representa con A∩B y se escribe como {3, 4}. Como solo los números 3 y 4 son comunes en los conjuntos A y B, se denominan intersección de los conjuntos.

A = {2, 3, 5, 7, 11}

B = {1, 3, 5, 7, 9, 11}

A∩B = {3, 5, 7, 11}


Diferencia entre unión e intersección de conjuntos.

  1. Básico : la unión de dos conjuntos A y B se define como el conjunto de elementos que pertenecen a A o B, o posiblemente a ambos, mientras que la intersección de dos conjuntos se define como el conjunto de elementos que pertenecen a A y B.
  2. Representación simbólica : la unión de dos conjuntos se representa con el símbolo "∪", mientras que la intersección de dos conjuntos se representa con el símbolo "∩".
  3. Relevancia lógica : la unión de dos conjuntos corresponde a la "O" lógica, mientras que la intersección de dos conjuntos corresponde a la "Y" lógica.
  4. Ejemplo : Sea A = {a, e, i, o, u} y

B = {a, b, c, d, e, f}

A∪B = {a, b, c, d, e, f, i, o, u}

A∩B = {a, e}


¿Cuáles son las leyes de De Morgan? stars

Las estadísticas matemáticas a veces requieren el uso de la teoría de conjuntos. Las leyes de De Morgan son dos afirmaciones que describen las interacciones entre varias operaciones de teoría de conjuntos. Las leyes son que para cualquiera de los dos conjuntos A y B :

  1. ( AB ) C = A C U B C.
  2. ( A U B ) C = A CB C.

Después de explicar lo que significa cada una de estas afirmaciones, veremos un ejemplo de cada una de estas que se utilizan.



Para entender lo que dicen las leyes de De Morgan, debemos recordar algunas definiciones de las operaciones de la teoría de conjuntos. Específicamente, debemos conocer la union y la interseccion de dos conjuntos y el complemento de un conjunto.

Las leyes de De Morgan se relacionan con la interacción de la unión, la intersección y el complemento. Recordar que:

  • La intersección de los conjuntos A y B consta de todos los elementos que son comunes a A y B. La intersección se denota por AB.
  • La unión de los conjuntos A y B consiste en todos los elementos que están en A o B , incluidos los elementos en ambos conjuntos. La intersección se denota por AU B.
  • El complemento del conjunto A consiste en todos los elementos que no son elementos de A. Este complemento se denota por A C.

Ahora que hemos recordado estas operaciones elementales, veremos la declaración de las Leyes de De Morgan. Para cada par de sets A y B tenemos:

  1. ( AB ) C = A C U B C
  2. ( A U B ) C = A CB C

Estas dos afirmaciones pueden ilustrarse mediante el uso de diagramas de Venn. Como se ve a continuación, podemos demostrarlo usando un ejemplo. Para demostrar que estas afirmaciones son ciertas, debemos probarlas usando definiciones de operaciones de teoría de conjuntos.



Por ejemplo, considere el conjunto de numeros reales de 0 a 5. Escribimos esto en notación de intervalo [0, 5]. Dentro de este conjunto tenemos A = [1, 3] y B = [2, 4]. Además, después de aplicar nuestras operaciones elementales tenemos:

  • El complemento A C = [0, 1) U (3, 5]
  • El complemento B C = [0, 2) U (4, 5]
  • La unión A U B = [1, 4]
  • La intersección AB = [2, 3]

Comenzamos calculando la unión A C U B C. Vemos que la unión de [0, 1) U (3, 5] con [0, 2) U (4, 5] es [0, 2) U (3, 5]. La intersección AB es [2 , 3]. Vemos que el complemento de este conjunto [2, 3] también es [0, 2) U (3, 5]. De esta manera, hemos demostrado que A C U B C = ( AB ) C .

Ahora vemos la intersección de [0, 1) U (3, 5] con [0, 2) U (4, 5] es [0, 1) U (4, 5]. También vemos que el complemento de [ 1, 4] también es [0, 1) U (4, 5]. De esta manera, hemos demostrado que A CB C = ( A U B ) C.



A lo largo de la historia de la lógica, personas como Aristoteles y Guillermo de Ockham han hecho declaraciones equivalentes a las Leyes de De Morgan.

Las leyes de De Morgan llevan el nombre de Augustus De Morgan, que vivió desde 1806 hasta 1871. Aunque no descubrió estas leyes, fue el primero en introducir estas afirmaciones formalmente utilizando una formulación matemática en la lógica proposicional.

La influencia de Mary Whiton Calkins en el campo de la psicología stars

Mary Whiton Calkins fue una psicóloga estadounidense que se convirtió en la primera mujer presidenta de la American Psychological Association. Si bien obtuvo un doctorado en psicología de Harvard, la universidad se negó a otorgarle un título porque era una mujer. A pesar de esto, se convirtió en una figura influyente en el desarrollo de la psicología temprana y enseñó a muchos estudiantes a través de su posición en el Wellesley College.

Para enseñar psicología, necesitaba estudiar la materia durante al menos un año. La dificultad con esto era que había pocos programas de psicología disponibles en ese momento, y aún menos que aceptarían a mujeres postulantes. Inicialmente consideró estudiar en el extranjero pero abandonó esa idea. La distancia y la falta de un laboratorio de psicología la disuadieron de asistir a programas en Yale y la Universidad de Michigan.

Aún interesada en continuar sus estudios de psicología, Calkins nuevamente solicitó que se le permitiera estudiar en Harvard . Su solicitud fue aceptada en 1892, pero con la disposición de que solo fue admitida como invitada, no como estudiante.

En Harvard, Calkins inventó la tarea de asociados emparejados, que consistía en mostrar a los participantes del estudio una serie de colores y números pareados, y luego probar los recuerdos de qué número se había emparejado con qué color. La técnica se utilizó para estudiar la memoria y más tarde fue publicada por elpsicologo Edwuard Titchener , quien reclamó el crédito por su desarrollo.

A lo largo de su carrera, Calkins escribió más de cien artículos profesionales de temas de psicología y filosofía. Además de ser la primera mujer presidenta de la American Psychological Association en 1918.

Entre sus principales contribuciones a la psicología se encuentran la invención de la técnica de asociación pareada y su trabajo en auto psicología. Calkins creía que el yo consciente era el foco principal de la psicología. A pesar de las contribuciones de Mary Whiton Calkins, Harvard mantiene su negativa a otorgar el título que obtuvo y su influencia en la psicología a menudo es ignorada tanto por académicos como por estudiantes.

 

El concepto de probabilidad en las matemáticas

PROBALIDAD

La probabilidad es una forma de expresar conocimiento o creencia de que un evento ocurrirá o ha ocurrido. Al concepto se le ha dado un significado matemático exacto en la teoría de la probabilidad, que se usa ampliamente en áreas de estudio como matemáticas, estadística, finanzas, juegos de azar, ciencia y filosofía para sacar conclusiones sobre la probabilidad de eventos potenciales y la mecánica subyacente de complejos sistemas.

La palabra probabilidad no tiene una definición directa consistente. De hecho, hay dos amplias categorías de interpretaciones de probabilidad, cuyos adeptos poseen diferentes puntos de vista sobre la naturaleza fundamental de la probabilidad.

Tipos de probabilidad:

Básicamente existen cuatro tipos de probabilidades, cada una con sus limitaciones. Ninguno de estos enfoques de probabilidad es incorrecto, pero algunos son más útiles o más generales que otros.

- Probabilidad clásica: La interpretación clásica debe su nombre a su pedigrí temprano y augusto. Promovido por Laplace, y encontrado incluso en las obras de Pascal, Bernoulli, Huygens y Leibniz, asigna probabilidades en ausencia de evidencia, o en presencia de evidencia simétricamente equilibrada.

La teoría clásica de la probabilidad se aplica a eventos igualmente probables, como los resultados de tirar una moneda o lanzar dados; tales eventos fueron conocidos como "preparables". probabilidad = número de equipos favorables / número total de capacidades relevantes.

- Probabilidad lógica: Las teorías lógicas de la probabilidad retienen la idea de la interpretación clásica de que las probabilidades pueden determinarse a priori mediante un examen del espacio de posibilidades.

- Probabilidad subjetiva: Una probabilidad derivada del juicio personal de un individuo sobre si es probable que ocurra un resultado específico. Las probabilidades subjetivas no contienen cálculos formales y solo reflejan las opiniones del sujeto y la experiencia pasada.

Las probabilidades subjetivas difieren de persona a persona. Debido a que la probabilidad es subjetiva, contiene un alto grado de sesgo personal. Un ejemplo de probabilidad subjetiva podría ser preguntar a los fanáticos de los Yankees de Nueva York, antes de que comience la temporada de béisbol, las posibilidades de que Nueva York gane la serie mundial. Si bien no hay una prueba matemática absoluta detrás de la respuesta al ejemplo, los fanáticos aún pueden responder en términos porcentuales reales, como que los Yankees tienen un 25% de posibilidades de ganar la serie mundial. En el habla cotidiana, expresamos nuestras creencias sobre las probabilidades de eventos utilizando la misma terminología que en la teoría de la probabilidad. A menudo, esto no tiene nada que ver con ninguna definición formal de probabilidad, sino que es una idea intuitiva guiada por nuestra experiencia y, en algunos casos, por las estadísticas.

Teoría:

Al igual que otras teorías, la teoría de la probabilidad es una representación de conceptos probabilísticos en términos formales, es decir, en términos que pueden considerarse por separado de su significado. Estos términos formales son manipulados por las reglas de las matemáticas y la lógica, y cualquier resultado se interpreta o traduce nuevamente al dominio del problema. Ha habido al menos dos intentos exitosos de formalizar la probabilidad, concretamente la formulación de Kolmogorov y la formulación de Cox. En la formulación de Kolmogorov, los conjuntos se interpretan como eventos y la probabilidad misma como una medida en una clase de conjuntos. En el teorema de Cox, la probabilidad se toma como primitiva y se hace hincapié en construir una asignación coherente de valores de probabilidad para las proposiciones. En ambos casos, las leyes de probabilidad son las mismas, a excepción de los detalles técnicos.

Existen otros métodos para cuantificar la incertidumbre, como la teoría de Dempster-Shafer o la teoría de la posibilidad, pero esos son esencialmente diferentes y no son compatibles con las leyes de la probabilidad tal como se suelen entender.

Uso matemático:

En matemáticas, la probabilidad de un evento A está representada por un número real en el rango de 0 a 1 y escrito como P (A), p (A) o Pr (A). Un evento imposible tiene una probabilidad de 0, y un evento determinado tiene una probabilidad de 1. Sin embargo, los conversos no siempre son verdaderos: los eventos de probabilidad 0 no siempre son imposibles, ni los eventos de probabilidad 1 son ciertos.

Lo opuesto o complemento de un evento A es el evento (es decir, el evento de A no ocurre); su probabilidad viene dada por P (no A) = 1 - P (A). Como ejemplo, la posibilidad de no tirar un seis en un dado de seis caras es 1 - (posibilidad de lanzar un seis). Si ambos eventos A y B ocurren en una sola ejecución de un experimento, esto se llama intersección o probabilidad conjunta de A y B, denotada como. Si dos eventos, A y B son independientes, entonces la probabilidad conjunta es Por ejemplo: si dos monedas se voltean, la posibilidad de que ambas sean cabezas es Si el evento A o el evento B o ambos eventos ocurren en una sola ejecución de un experimento, esto se llama unión de los eventos A y B denotados como. Si dos eventos son mutuamente excluyentes, entonces la probabilidad de que ocurra es Por ejemplo, la probabilidad de tirar un 1 o 2 en un dado de seis caras es Si los eventos no son mutuamente excluyentes, entonces La probabilidad condicional es la probabilidad de algún evento A, dada la ocurrencia de algún otro evento B. La probabilidad condicional se escribe P (A | B), y se lee "la probabilidad de A, dado B". Está definido por Si P (B) = 0, entonces no está definido.

Aplicaciones:

Dos aplicaciones principales de la teoría de la probabilidad en la vida cotidiana están en la evaluación del riesgo y en el comercio en los mercados de productos básicos. Los gobiernos típicamente aplican métodos probabilísticos en la regulación ambiental donde se llama "análisis de vías", a menudo midiendo el bienestar usando métodos que son de naturaleza estocástica, y eligiendo proyectos para emprender basados en análisis estadísticos de su efecto probable en la población en general.

Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto generalizado en Oriente Medio sobre los precios del petróleo, que tienen efectos dominantes en la economía en general. Una evaluación por parte de un comerciante de productos básicos de que una guerra es más probable contra menos probable que los precios suban o bajen, y señala a otros operadores de esa opinión. En consecuencia, las probabilidades no se evalúan de forma independiente ni necesariamente de forma muy racional. La teoría de las finanzas del comportamiento surgió para describir el efecto de ese pensamiento grupal sobre los precios, sobre las políticas y sobre la paz y el conflicto.

Se puede decir razonablemente que el descubrimiento de métodos rigurosos para evaluar y combinar las evaluaciones de probabilidad ha tenido un profundo efecto en la sociedad moderna. En consecuencia, puede ser de cierta importancia para la mayoría de los ciudadanos entender cómo se realizan las evaluaciones de probabilidad y probabilidad, y cómo contribuyen a la reputación y a las decisiones, especialmente en una democracia.

Otra aplicación significativa de la teoría de la probabilidad en la vida cotidiana es la fiabilidad. Muchos productos de consumo, como automóviles y productos electrónicos de consumo, utilizan la teoría de la confiabilidad en el diseño del producto para reducir la probabilidad de falla. La probabilidad de falla puede estar estrechamente relacionada con la garantía del producto.

Subscribe to this RSS feed