Condicionamiento instrumental: 10 ejemplos y definición

El condicionamiento instrumental es una forma de aprendizaje conductista. Implica el uso de consecuencias conductuales para afectar la probabilidad de que una acción vuelva a suceder.

En esencia, el enfoque del condicionamiento instrumental sostiene que:

  • Comportamientos seguidos de consecuencias positivas es más probable que vuelva a ocurrir.
  • Comportamientos seguidos de consecuencias negativas es menos probable que vuelva a ocurrir.

El condicionamiento instrumental a menudo se denomina condicionamiento operante.

Índice()

    Explicación y descripción general del condicionamiento instrumental

    El condicionamiento instrumental es un concepto en psicología que explica cómo las personas y los animales desarrollan respuestas aprendidas a través de la repetición de refuerzo positivo, refuerzo negativo y castigo.

    El psicólogo más conocido que estudió el condicionamiento instrumental es BF Skinner (1965).

    Skinner realizó extensos estudios sobre las consecuencias positivas y negativas utilizando un aparato que inventó llamado Skinner Box.

    Una caja de Skinner es una pequeña jaula que contiene una palanca, un lugar donde se pueden entregar gránulos de comida, un piso de alambre que se puede electrificar y una luz.

    Al manipular la frecuencia y el momento en que se entregaría una bolita de comida en función del sujeto animal que presionaba la palanca, Skinner pudo identificar cuatro programas principales de refuerzo: proporción fija, proporción variable, intervalo fijo e intervalo variable, que se explican a continuación.

    Horarios de Refuerzo en Condicionamiento Instrumental

    Hay cuatro formas generales en las que se produce el condicionamiento respondedor, conocidas como programas de refuerzo. Estos se refieren a las diferentes formas en que una persona proporciona recompensas y castigos a lo largo del tiempo. Cada programa de refuerzo produce un patrón diferente de comportamiento (Ferster & Skinner, 1957).

    Los cuatro programas de refuerzo se presentan a continuación.

    1. Horario de Razón Fija

    El programa de refuerzo de proporción fija entrega una recompensa basada en un número específico de comportamientos que ocurren.

    Como ejemplo, un programa FR-10 entregará una recompensa después de 10 instancias del comportamiento objetivo; independientemente de la cantidad de tiempo que haya transcurrido.

    En términos generales, los programas de raciones fijas producen adquisición rápida de la conducta objetivo. El organismo descubrirá rápidamente qué comportamiento objetivo específico está siendo recompensado.

    gráfico de un programa de razón fija que muestra la adquisición rápida de conductas y la extinción rápida de conductas en relación con el cese del reforzamiento

    Este horario produce una fuerte tasa de comportamiento. Sin embargo, cuando cesa el reforzamiento, la conducta objetivo también cesa rápidamente. Se llama extinción.

    Poco después de la terminación del reforzamiento, el organismo puede exhibir una estallido de extinción, que es un aumento repentino en el comportamiento objetivo.

    Otro patrón notable de comportamiento en este horario es el pausa posterior al refuerzo. Después de que se ha entregado cada refuerzo, hay una pequeña pausa en el comportamiento.

    2. Horario de Razón Variable

    El programa de proporción variable es similar al programa de ración fija, solo que en lugar de fijar el número de comportamientos objetivo, varía.

    Por ejemplo, con un programa VR-10, el comportamiento objetivo puede reforzarse después de 7 instancias, luego 11, luego 8, luego 15. El número cambia después de cada refuerzo. Aunque el número cambia, el promedio será 10, por lo que el programa se denota como VR-10.

    gráfico de un programa de razón variable que muestra la adquisición rápida del comportamiento y la extinción lenta del comportamiento en relación con el cese del reforzamiento

    Este programa produce una adquisición rápida, una alta tasa de comportamiento y ninguna pausa posterior al refuerzo.

    Una vez que se termina el reforzamiento, la extinción se produce lentamente. Al organismo le toma algún tiempo discernir que el comportamiento objetivo ya no es recompensado.

    3. Horario de intervalo fijo

    El programa de intervalo fijo se centra en el tiempo. Después de que haya transcurrido un intervalo de tiempo específico, se refuerza la siguiente instancia del comportamiento objetivo.

    El intervalo de tiempo no cambia y la cantidad de comportamientos objetivo que ocurren durante el intervalo es irrelevante.

    La velocidad de adquisición y extinción del comportamiento depende de la duración del intervalo; cuanto más corto sea el intervalo, más rápido se adquirirá y extinguirá el comportamiento.

    gráfico de un programa de intervalo fijo que muestra la adquisición lenta de la conducta y la extinción rápida de la conducta en relación con el cese del reforzamiento

    El programa FI produce un patrón único de comportamiento llamado festoneado. Esto se refiere a la tasa de comportamiento que disminuye inmediatamente después del refuerzo (es decir, la pausa posterior al refuerzo), y luego aumenta a medida que transcurre el siguiente intervalo.

    4. Horario de intervalo variable

    El programa de intervalo variable es similar al programa FI, excepto que el intervalo de tiempo varía.

    Por ejemplo, el primer intervalo puede ser de 7 minutos, el siguiente de 9, seguido de 4 y luego quizás de 10.

    gráfico de un programa de intervalo variable que muestra la adquisición lenta de la conducta y la extinción lenta de la conducta en relación con el cese del reforzamiento

    Este programa produce una tasa de comportamiento moderada pero constante, adquisición lenta y extinción lenta.

    Ejemplos de condicionamiento instrumental

    • Ser seleccionado para una entrevista de trabajo: Ser seleccionado para una entrevista de trabajo puede parecer bastante aleatorio si solicita muchos trabajos. A veces, enviar su currículum resultará en una entrevista y, a veces, no. ─ Relación variable
    • Comisiones de ventas: La mayoría de las personas en ventas trabajan a comisión. A veces se otorga una comisión por todas y cada una de las ventas o después de que se haya completado un cierto número de ventas. ─ Relación fija
    • Bonificación anual del CEO: Las grandes corporaciones recompensan al CEO y otros altos ejecutivos con un bono anual basado en el desempeño de la empresa. ─ Intervalo fijo
    • Pruebas sorpresa: Cuando un maestro da pruebas sorpresa, significa que algunas semanas puede que no haya pruebas, pero en otras semanas puede haber dos o incluso tres. La cantidad de tiempo entre cuestionarios cambia cada semana. ─ Intervalo variable
    • En Entrenamiento: Para asegurarse de que el equipo no se eche a perder, la mayoría de los entrenadores no elogiarán cada vez que un jugador haga una buena jugada durante un partido. Prefieren premiar el buen juego algunas veces, pero no todo el tiempo. ─ Relación variable
    • Estudiando: Si hacemos un seguimiento del estudio a lo largo de un año académico, veríamos que el estudio aumenta a medida que se acercan los exámenes parciales y finales. Sin embargo, después de esos exámenes, el estudio disminuye cuando los estudiantes toman una pausa posterior al refuerzo. ─ Intervalo fijo
    • La economía del concierto: Trabajar en la economía de conciertos significa solicitar continuamente varios trabajos, pero solo ganar un contrato por unos pocos. ─ Relación variable
    • Inspecciones Sanitarias: A algunas ciudades les gusta inspeccionar los restaurantes en busca de violaciones del código de salud. Eso significa que nadie sabe cuándo tendrá lugar una inspección; podría ser una vez por trimestre, o varias veces durante los períodos pico de temporada ─ Intervalo variable
    • Tarea gratificante: Para ayudar a los estudiantes a desarrollar mejores hábitos de tarea, un maestro recompensa a cada estudiante que completa 3 tareas con tiempo extra durante el recreo. ─ Relación fija
    • El cheque de pago quincenal: Muchos trabajadores a los que se les paga un salario por hora reciben un cheque de pago cada dos semanas. Este cronograma de pago quincenal constante es predecible y también conduce a un patrón de trabajo predecible ─ Intervalo fijo

    Historia y orígenes del condicionamiento instrumental

    Uno de los primeros psicólogos en discutir cómo las consecuencias positivas y negativas impactan el comportamiento fue Edward Thorndike.

    Thorndike declaró que:

    “Las respuestas que producen un efecto satisfactorio en una situación particular tienen más probabilidades de ocurrir nuevamente en esa situación, y las respuestas que producen un efecto incómodo tienen menos probabilidades de ocurrir nuevamente en esa situación” (Gray, 2007, p. 106).

    Una nota al margen interesante es que Thorndike no acuñó inicialmente el término Ley del efecto hasta mucho más tarde en su trabajo (Catania, 1999).

    Como lo reveló Catania, los primeros escritos de Thorndike se referían a la Ley como “cambios neuronales más que cambios en el comportamiento” (p. 426).

    Tenga en cuenta la terminología de Thorndike en 1907:

    “Las conexiones entre las neuronas se fortalecen cada tiempo se utilizan con resultados indiferentes o placenteros y se debilitan cada vez que se utilizan con el consiguiente malestar” (p. 166).

    Independientemente de cuándo se estableció específicamente la Ley del efecto, se origina en la investigación de Thorndike sobre cómo los gatos (y, a veces, los perros pequeños) escaparon de algo que él creó llamado "caja de rompecabezas".

    Se diseñó una caja de rompecabezas de tal manera que la única forma de escapar era presionando un panel o tirando de un lazo, que luego abría la puerta.

    Thorndike colocaría al gato en la caja y luego registraría cuánto tiempo tardó en escapar. En las primeras pruebas, el gato actuaría caóticamente. Eventualmente, descubrió accidentalmente cómo escapar.

    Sin embargo, a medida que aumentó el número de ensayos, surgió una tendencia. El gato escapó cada vez más rápido.

    El siguiente gráfico muestra los datos del gato n.° 12 en el cuadro A, según los datos presentados en la publicación de Thorndike de 1898 (pág. 15). Como muestra el gráfico, en la primera prueba, el gato tardó casi 3 minutos en escapar.

    Pero después de eso, el gato comenzó a escapar con bastante rapidez. En las últimas pruebas, el gato solo tardó unos segundos en escapar.

    Un gráfico que muestra cómo el gato aprendió a escapar de la caja del rompecabezas cada vez más rápido en el experimento de Thorndike.

    Sin embargo, en la prueba 13, el gato se escapaba en menos de 10 segundos. Thorndike realizó numerosos estudios similares a este. Todos ellos revelaron la misma tendencia general.

    De experimentos como este, se derivó la famosa Ley del Efecto y tuvo un tremendo impacto en la psicología y nuestra comprensión del comportamiento humano.

    Aplicaciones del acondicionamiento instrumental

    1. Tratamiento del comportamiento agresivo: intervalo variable

    Como Van Camp et al. (2000), la investigación sobre el refuerzo de personas con discapacidades de comportamiento o de aprendizaje generalmente implementa un programa denso de tiempo fijo (FT).

    Un horario denso que recompensa el comportamiento frecuentemente tiene varios beneficios. Conduce a la adquisición rápida del comportamiento objetivo, que en el caso de reemplazar el comportamiento físicamente agresivo, tiene una alta prioridad.

    Sin embargo, los horarios de tiempo variable (VT) son más realistas “porque los cuidadores a menudo no pueden implementar los horarios de FT con un alto grado de integridad en el entorno natural” (p. 546).

    Por lo tanto, Van Camp et al. (2000) compararon la efectividad de los programas FT y VT en el tratamiento de dos personas con retraso moderado a severo. Ambos pacientes mostraron un comportamiento físicamente agresivo y, a veces, auto agresivo.

    Después de capacitar al personal en la implementación de ambos programas y trabajar con cada paciente, los resultados “indicaron que los programas VT fueron tan efectivos como los programas FT para reducir el comportamiento problemático” (p. 552).

    Las implicaciones de que el cronograma de FP sea efectivo son significativas:

    “Los cuidadores que implementan el tratamiento en el entorno natural tienen numerosas demandas de su tiempo y, por lo tanto, es probable que implementen los programas VT incluso cuando se les enseñó a usar los programas FT” (p. 556).

    2. Mantener a los jóvenes estudiantes enfocados: intervalo fijo

    Los niños pequeños con perfiles de aprendizaje típicos todavía tienen problemas para concentrarse en la tarea. Se distraen fácilmente y les resulta difícil mantener la concentración.


    Riley et al. (2011) examinaron la efectividad de un programa de refuerzo de tiempo fijo (FT) aplicado a dos estudiantes. El maestro de su salón de clases identificó que ambos niños tenían dificultades para mantenerse enfocados.

    En la primera fase del estudio, se observaron y registraron cuidadosamente los comportamientos de los niños dentro y fuera de la tarea. A continuación, se capacitó al maestro sobre cómo administrar un horario de FT-5 minutos.

    Entonces, cada 5 minutos, el maestro elogió el comportamiento en la tarea y redirigió la atención del estudiante si estaba involucrado en un comportamiento fuera de la tarea.

    Después de analizar los datos, los autores concluyeron:

    “Este estudio demuestra que la prestación de atención FT puede ser una estrategia eficaz que se utiliza para aumentar los comportamientos en la tarea y disminuir los comportamientos fuera de la tarea de los estudiantes con un desarrollo típico” (p. 159).

    3. Hábitos de trabajo del Congreso de los EE. UU.: Intervalo fijo

    En términos generales, el Congreso de los EE. UU. trabaja en un horario de intervalo fijo (FI), que comienza en enero y finaliza a fin de año.

    Si consideramos su comportamiento objetivo como el acto de aprobar legislación, entonces podemos examinar su patrón de comportamiento a lo largo del año en el contexto de un cronograma de IF.

    Esto es exactamente lo que Critchfield et al. (2003) lo hizo. Los investigadores examinaron la tasa de producción de proyectos de ley en el Congreso durante un período de 52 años, de 1949 a 2000.

    Los datos revelaron la pausa posterior al refuerzo y el patrón festoneado de comportamiento que es típico de los programas de FI. Las palabras de los autores describen los datos de manera sucinta:

    “En todos los años encuestados, se promulgaron pocos proyectos de ley durante los primeros meses de cada sesión, y el total acumulado tendió a acelerarse positivamente a medida que se acercaba el final de la sesión. A lo largo de más de medio siglo, entonces, se han promulgado proyectos de ley en un patrón festoneado distinto en cada sesión de cada Congreso” (p. 468).

    Conclusión

    El condicionamiento instrumental es un principio de aprendizaje en el que las consecuencias de un comportamiento determinan la probabilidad de que vuelva a ocurrir.

    La extensa investigación de Skinner identificó cuatro programas principales de refuerzo. Cada programa produce una tasa diferente de comportamiento, una tasa diferente de adquisición y una tasa diferente de extinción.

    Resulta que podemos ver ejemplos de estos horarios en muchos aspectos de la vida. Los trabajadores con horarios de pago quincenales y la productividad del Congreso exhiben el mismo patrón de comportamiento que se deriva de un horario de intervalo fijo.

    Tratar de conseguir una entrevista de trabajo o trabajar como autónomo en la economía de conciertos son ejemplos de un programa de proporción variable. A veces, el comportamiento se recompensa rápidamente, pero otras veces parece que requiere un poco de esfuerzo.

    Las inspecciones de salud y los exámenes sorpresa pueden ocurrir en momentos impredecibles porque siguen un programa de intervalos variables. Esto mantiene a los involucrados completamente alertas y diligentes.

    A las personas en ventas a menudo se les paga una comisión por todos y cada uno de los contratos completados o después de lograr un hito específico, lo que los coloca en un programa de proporción fijo y conduce a un desempeño sólido y constante.

    El condicionamiento instrumental explica mucho del comportamiento humano. Se puede utilizar para ayudar a las personas con dificultades de aprendizaje o mejorar el rendimiento académico de los estudiantes típicos.

    Y todo empezó estudiando cuánto tardaba un gato en escapar de una caja.

    Referencias

    Catania, AC (1999). El legado de Thorndike: aprendizaje, selección y la ley del efecto. Revista de Análisis Experimental del Comportamiento, 72(3), 425-428.

    Critchfield, TS, Haley, R., Sabo, B., Colbert, J. y Macropoulis, G. (2003). Medio siglo de festoneado en los hábitos de trabajo del Congreso de los Estados Unidos. Revista de análisis de comportamiento aplicado, 36(4), 465-486.

    Dreikurs, R. y Stolz, V. (1991). Niños: El desafío: El trabajo clásico para mejorar las relaciones entre padres e hijos: inteligente, humano y eminentemente práctico. Londres: pingüino.

    Dreikurs, R. (1987). Niños: El reto. Nueva York: Dutton.

    Dreikurs, RC y Grey, L. (1968). Consecuencias lógicas: un nuevo enfoque de la disciplina. Los Ángeles: Meredith Press.

    Ferster, CB y Skinner, BF (1957). Horarios de refuerzo. Nueva York: Appleton-Century-Crofts.

    Gris, P. (2007). Psicología (6el ed.). Nueva York: Worth Publishers.

    Madden, GJ (2012). Manual de análisis de la conducta de la APA (Manuales de psicología de la APA). Nueva York: APA.

    Maggin, DM, Chafouleas, SM, Goddard, KM y Johnson, AH (2011). Una evaluación sistemática de las economías de fichas como una herramienta de gestión del aula para estudiantes con comportamiento desafiante. Revista de Psicología Escolar, 49(5), 529-554.

    Nelsen, J. (1996). Disciplina positiva. Nueva York: Ballantine Books.

    Nelsen, J. (2011). Disciplina positiva: la guía clásica para ayudar a los niños a desarrollar habilidades de autodisciplina, responsabilidad, cooperación y resolución de problemas. Libros Ballantine.

    Reitman, D., Boerke, K. y Vassilopoulos, A. (2021). Economías de fichas. manual de análisis de comportamiento aplicado374.

    Riley, JL, McKevitt, BC, Shriver, MD y Allen, KD (2011). Aumentar el comportamiento en la tarea usando la atención del maestro entregada en un horario fijo. Revista de educación conductual, 20(3), 149-162.

    Skinner, BF (1965). ciencia y ser humano comportamiento. Nueva York: Prensa libre.

    Thorndike, EL (1898). Inteligencia animal: un estudio experimental de los procesos asociativos en animales. The Psychological Review: suplementos de monografías, 2(4), yo.

    Thorndike, EL (1905). Los elementos de la psicología.. Nueva York: AG Seiler.

    Thorndike, EL (1907). Los elementos de la psicología. (2Dakota del Norte ed.). Nueva York: AG Seiler.

    Van Camp, CM, Lerman, DC, Kelley, ME, Contrucci, SA y Vorndran, CM (2000). Programas de refuerzo de tiempo variable en el tratamiento del comportamiento problemático mantenido socialmente. Revista de análisis de comportamiento aplicado, 33(4), 545-557.


    cris


    Califica esta Publicación

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

    Subir

    Usamos cookies Política de Cookies