INFORMATION

Psicothema was founded in Asturias (northern Spain) in 1989, and is published jointly by the Psychology Faculty of the University of Oviedo and the Psychological Association of the Principality of Asturias (Colegio Oficial de Psicólogos del Principado de Asturias).
We currently publish four issues per year, which accounts for some 100 articles annually. We admit work from both the basic and applied research fields, and from all areas of Psychology, all manuscripts being anonymously reviewed prior to publication.

PSICOTHEMA
  • Director: Laura E. Gómez Sánchez
  • Frequency:
         February | May | August | November
  • ISSN: 0214-9915
  • Digital Edition:: 1886-144X
CONTACT US
  • Address: Ildelfonso Sánchez del Río, 4, 1º B
    33001 Oviedo (Spain)
  • Phone: 985 285 778
  • Fax: 985 281 374
  • Email:psicothema@cop.es

Psicothema, 1990. Vol. Vol. 2 (nº 1). 37-56




DIAGNOSTICO CURRICULAR Y DIFICULTADES DE APRENDIZAJE

Samuel Fernández Fernández

Dpto. de Ciencias de Educación. Universidad de Oviedo.

El descontento apreciado entre el profesorado ante el diagnóstico normativo al que se somete al alumnado con Dificultades de Aprendizaje, de cara a planificaciones correctivas o fórmulas alternativas de escolarización, se justifica por razones de carencia de validez curricular, falta de reconocimiento de valoraciones cualitativas, ausencia de planteamientos operativos que sean aplicables directamente en el aula, discontinuidad en el proceso diagnóstico y alejamiento del contexto real de la dinámica de enseñanza-aprendizaje. Sin ánimo de minusvalorar el diagnóstico tradicional, creemos que resulta necesario establecer modelos previos de exploración y diagnóstico que posean un carácter más dinámico y directo, que estén más integrados en el aula y. que sean, en definitiva, más escolares.

En este sentido, se describen, brevemente, los pasos que caracterizan una formulación diagnóstica sistemática, de base curricular, que permita la valoración directa del proceso de aprendizaje mediante competencias definidas por conductas, habilidades y conocimientos claramente observables en el currículum, evitando así arriesgadas inferencias efectuadas a partir de pruebas genéricas y descontextualizadas.

Palabras clave: Diagnóstico Basado en el Currículum. Pedagogía Correctiva. Dificultades de Aprendizaje.

Curriculum Assessment and Learning Disabilities.- The dissatisfaction shown by teachers towards the normative diagnosis with which children with Learning disabilities are assessed, when corrective planifications or alternative schooling forms are thought of, is justified by reasons of deficiencies into the curricular validity, lack of use of qualitative assessment, lack of an operative establishment able to be applied directly in the classroom, a discontinuity in the diagnostic process and removal of the teaching-learning dynamic from the real context.

Whitout an intention to rest any value to the traditional assessment, we think that previous explorations and diagnostic models which have a more dynamic and direct character need to be established and which are more integrated in the classroom and are, in short, closer to school.

In this sense, we describe briefly the typical steps of a sistematic curricular assessment, which allows a direct valoration of the learning process through competences defined by behaviors, abilities and knowledge perfectly defined into the curriculum, so that we can avoid the risky inferences made by general and descontextualized tests.

Keywords: Curriculum Based Assessment. Remedial Education. Learning Disabilities.

PDF

EVALUACION TRADICIONAL Y ESTADO DE LA CUESTION

A pesar de la actual desmitificación del diagnóstico normativo existente en Educación (Salvia e Ysseldyke, 1981), aún persisten ciertas concepciones erróneas acerca de las posibilidades educativas de las pruebas formales o estandarizadas, asumiéndose, por ejemplo, que los tests de inteligencia pueden, en general: a) estimar la capacidad de aprendizaje de un alumno y predecir su rendimiento académico; b) identificar, de forma significativa, áreas fuertes y débiles del aprendizaje; c) proporcionar la base para el establecimiento de modelos de enseñanza.

Desgraciadamente, parece que esto no es así. Los tests de inteligencia, en bruto, es decir, con sus gruesas puntuaciones asépticas, resultan no ser buenos predictores del futuro nivel de conocimientos de los alumnos, reconociéndose ahora (Siegel, 1989), que el rendimiento escolar depende de una más compleja interacción de factores externos, tales como métodos de enseñanza, materiales de aprendizaje y demás aspectos curriculares, y de factores internos como motivación, habilidades de estudio y de resolución de problemas, etc.

Los tests de inteligencia son, por sí mismos, incapaces, igualmente, de registrar o definir niveles significativos de aprendizaje y los perfiles de capacidades de algunas escalas intelectivas resultan, frecuentemente, irrelevantes a la hora de planificar un programa dé enseñanza para un alumno o grupo de alumnos con dificultades de aprendizaje, limitándose éstos a mostrar apreciaciones tan genéricas e indirectas que, de cara a unos aprendizajes educativamente significativos, su utilidad resulta altamente cuestionable (Lerner, 1985), pudiendo estimarse, todo lo más, como la base o el encuadre de un esquema de enseñanza.

El reconocimiento de la incapacidad de los tests de inteligencia general para proporcionar al profesorado una ayuda práctica en su enseñanza, hizo que, a partir de los años 60, proliferase el llamado diagnóstico de subhabilidades. En pleno auge del enfoque de la «deficiencia», y comprendiendo que las pruebas de inteligencia general no aportaban nada práctico al mundo educativo para el conocimiento intraindividual de áreas de aprendizaje fuertes y débiles, los autores de tests se volcaron en la medición de determinadas capacidades que, al parecer, subyacen en aprendizajes académicos básicos como la lectoescritura.

Las investigaciones encargadas de validar esta tesis (Dale y Cole, 1988), han evidenciado y demostrado que los intentos de entrenar supuestas subhabilidades cognoscitivas, tales como la categorización visual o la discriminación auditiva, fracasan a la hora de conseguir que el alumno mejore su nivel de aprendizajes básicos ya que las tan ansiadas transferencias y generalizaciones no se producen. Esto, lógicamente, ha provocado un estado de opinión negativo sobre los llamados métodos indirectos, estimándose que, ni resulta tan fácil que un alumno mejore en lo que no practica, ni existe una relación tan directa entre habilidades y aprendizajes académicos. Por el contrario, se aprecia. que la forma más eficaz de que los alumnos adquieran nuevos conocimientos o mejoren sus habilidades académicas es enseñándoles «directamente» lo que queremos que aprendan.

Uno de los aspectos más penosos del movimiento tradicional de tests ha sido su enfoque restrictivo y negativo del alumno como individuo. Bajo este esquema, la inteligencia y sus componentes de base han sido analizados con la idea de que la formulación resultante debía reflejar el punto de vista de que una vez eliminadas las deficiencias, se observaría, indiscutiblemente, una clara mejora académica. Este estilo de diagnóstico tiene su origen en la práctica médica, en la que se realiza una exploración con el fin de descubrir alguna enfermedad o patología y, a la vista de un diagnóstico, se prescribe un tratamiento predeterminado. Desgraciadamente, cuando el modelo se aplica en educación, el resultado es el conocido etiquetado del alumno con condiciones peyorativas tales como inadaptación, hiperactividad, dislexia, etc.

La jerga empleada en la descripción de las dificultades de los alumnos y la insistencia de los autores en su adhesión a procedimientos de evaluación formal y normativa, trata de excluir a aquellos profesionales cuya posición es la más adecuada para un primer análisis diagnóstico, el profesorado. El problema se ve, además, como algo «fijo» del alumno, resultando la etiqueta ser un fin en sí misma y centrándose la acción sobre lo que está mal y no sobre aquello que permitiese que fuese superado. La intervención, al no admitirse una valoración desde el enfoque de la enseñanza, el currículum y el contexto en el que aprende el alumno, queda reducida e incompleta.

Sin embargo, aunque el modelo de diagnóstico imperante en la actualidad sea desarrollado por profesionales externos, en contextos no naturales y alejados del hecho escolar, y a pesar de que, consciente o inconscientemente, esto ha provocado una autominusvaloración del profesorado respecto a su propia capacidad para la exploración y el diagnóstico, a pesar de todo, decimos, resulta alentador comprobar que este profesorado de educación especial, comprometido con la integración escolar y la educación de alumnos con necesidades especiales, reclama la función que le corresponde y exige ser formado y entrenado para poder valorar y analizar las capacidades y habilidades de sus alumnos, por cuanto son conscientes de que son ellos los que, por su situación, directa y estrechamente ligada al proceso de aprendizaje, están en una disposición inmejorable para la comprensión y aplicación de acciones que permitan la normalización de su alumnado.

En este sentido, aunque existen elocuentes aportaciones que muestran nuevos enfoques y técnicas en el diagnóstico psicopedagógico (Tomlinson, 1982; Feiler, 1988), muchos de los profesionales que detentan estas funciones continúan desarrollándolas con un cierto aire de «dispensario de caridad», lo que provoca un distanciamiento, al situarse en el papel de expertos y prevenirse del trabajo cooperativo, con colegas y padres, para una solución conjunta de problemas.

Se ha depositado en las manos de esos profesionales de la evaluación un considerable poder, habiendo llegado a tener control sobre recursos y decisiones cruciales relativas al apoyo correctivo y a fórmulas de emplazamiento escolar. ¿Por qué se confiere tanto poder a grupos de profesionales que, paradójicamente, invierten tan poco tiempo en las escuelas y cuya función, dentro del objetivo básico del sistema educativo, pudiera considerarse, comparativamente, un tanto secundaria y marginal? Parte de la respuesta se apoya en la mística que envuelve a estos diagnosticadores. Su estatus es algo más elevado y sus acciones resultan misteriosas, al desarrollar su trabajo en gabinetes especiales, de puertas adentro y protegidos por un sistema burocrático que muestra lo ocupados y saturados de trabajo que están.

Una razón, menos tangible hoy día, por la que los profesores han delegado tal poder en estos profesionales del diagnóstico ha sido el conocimiento de que las apreciaciones y experiencias de éstos resultaban útiles para que los padres aceptasen decisiones que podrían haber rechazado si hubiesen sido emitidas por ellos. Sugerencias para ubicar a ciertos alumnos en determinados emplazamientos escolares, al venir apoyados en términos semicientíficos y ser hechos por profesionales neutrales, resultaban difíciles de refutar. Es como si hubiese existido un acuerdo tácito entre las escuelas y los profesionales externos por el cual se mantuvo un estatus en compensación a la connivencia en la segregación y aislamiento del alumnado difícil o problemático.

En cuanto a las relaciones interprofesionales, vemos que se pone un gran énfasis en la validez del diagnóstico multiprofesional. Idealmente, los profesionales especialistas en apoyo correctivo deberían trabajar formando grupo y contribuyendo, cada uno en función de su experiencia y formación, al objetivo de desarrollar estrategias de intervención bien organizadas y comprehensivas. Sin embargo, no es ningún secreto que el trabajo multidisciplinar eficaz es difícil de lograr y lo que quizás no se perciba tan fácilmente, es la áspera rivalidad entre diferentes grupos profesionales, al camuflarse bajo un aparente espíritu de cooperación la frecuente competición y rivalidad existente entre, por ejemplo, psicólogos y médicos, o psicólogos y pedagogos.

Desgraciadamente, la disensión entre profesionales impide a menudo el adecuado desarrollo de estrategias para el alumnado con necesidades especiales y, como consecuencia de los ataques y críticas que se producen entre los proponentes de diferentes enfoques, el resultado es una oscilación que confunde y desconcierta al profesorado, al estar su trabajo directamente influido por estos debates. Así, una de las más desafortunadas consecuencias de permitir a los profesionales externos tanto control en la valoración del alumnado con necesidades especiales, es la influencia que, consecuentemente, ejercen sobre el enfoque empleado en las clases de educación, especial, lo cual cristaliza, frecuentemente, en un currículum y en un esquema de enseñanza centrado y dirigido a la deficiencia.

Los sistemas correctivos adoptados en muchos centros específicos y aulas de apoyo tienden a organizarse, todavía, en torno a las incapacidades del alumnado en lugar de orientase hacia la consecución de un currículum amplio y de integración. Por contra, lo que necesita el alumnado con necesidades educativas especiales es ayuda para conseguir habilidades y conocimientos en un currículum de base amplia, y no tanto enseñanzas especializadas y terapéuticas, que al actuar alejadas de la enseñanza ordinaria resultan artificiosas y fragmentadas.

El comienzo de un proceso diagnóstico debe, en consecuencia, ser un intento genuino de ayuda al alumno y no un primer paso para la modificación de su situación escolar. El sustancial incremento de profesionales del diagnóstico debe contribuir a lo primero en lugar de que sus actividades sirvan para que muchos alumnos con dificultades de aprendizaje sean colocados en aulas complementarias, en las que el modelo de enseñanza impartido resulta reducido, fragmentado y fuera de lugar.

Así, la función más importante en el proceso de diagnóstico pedagógico debe ser la toma de decisiones sobre los cambios que requiere el modelo de enseñanza (materiales, agrupamientos, currículum global, etc.), con el fin de ayudar al alumno en su adquisición de habilidades o conocimientos. Lamentablemente, esto resulta muy difícil de conseguir desde un esquema de diagnóstico centrado en las deficiencias del alumno y externo al proceso de enseñanza-aprendizaje. Condiciones tales como, por ejemplo, «bajo CI», «limitado período de.concentración» o «inadecuado entorno familiar», son frecuentemente identificadas y sirven para desviarla cuestión de aspectos más relevantes como sistemas de enseñanza, elementos escolares generales o el propio currículum. Insistimos en que el peligro de este escenario es que el diagnóstico es empleado como una fórmula para descubrir defectos en lugar de ser un medio para descubrir, analizar y planificar estrategias de intervención adecuadas.

Otro gran problema con el diagnóstico tradicional es la interacción o relación entre los profesionales y el alumno. De acuerdo con Feiler (1988, p. 38), la situación puede definirse como exploración de «pega y corre» o de «encuentros en la tercera fase». De hecho, muchos tests son ya diseñados de forma que permitan al ocupado profesional dedicar un tiempo mínimo a la valoración del alumno. Así, la brevedad de la aplicación es resaltada en muchos manuales como una característica primordial y atractiva en una prueba. El resultado de estos breves encuentros es, habitualmente, un informe escrito que o bien recomienda un determinado tipo de escolarización o, como máximo, indica algunos esquemas genéricos sobre posibles enfoques que el profesor podría adoptar sobre la base de la acción aislada. Además; muchas de las pruebas clásicas tienden, ya de por sí, a disuadir a los profesionales del diagnóstico de trabajar en colaboración con padres y profesores. Por el contrario, y como ya hemos apuntado, procuran que la exploración se realice en el secreto de los despachos y gabinetes, aislando al alumno y al evaluador en un reducto antinatural, protegido de la distracción del mundo real de la escuela y del hogar.

El informe resultante a partir de la ejecución por el alumno de ciertas tareas no directamente ligadas con sus aprendizajes escolares, puede condicionar claramente su trayectoria educativa. Incluso el hecho de que un alumno haya sido evaluado por un psicólogo u otro profesional, puede, después, levantar un sinfín de sospechas y expectativas que, en muchos casos, resultan infundadas y carentes de garantía. Saber que un alumno fue diagnosticado en el pasado por un psicólogo es considerado a menudo como una prueba de que allí debía de haber un problema serio.

Esta noción puede ser reforzada, además, por el estilo y lenguaje empleados en el propio informe, ya que las descripciones de capacidades suelen ser presentadas como permanentes e impermeables a las acciones escolares correctivas. Estos informes, escritos al modo tradicional, tienden a poseer una característica de rigidez y pueden conducir a un punto de vista estático del alumno y de sus necesidades educativas.

LA EVALUACION DINAMICA COMO ALTERNATIVA AL DIAGNOSTICO CLÁSICO

Tanto las pruebas de capacidades intelectivas, como las de contenidos escolares, han sido criticadas respecto a sus propiedades predictivas y prescriptivas al ser utilizadas en el alumnado con problemas de aprendizaje escolar. Si bien es verdad que las correlaciones entre puntuaciones de tests de inteligencia y de conocimientos escolares son consistentemente altas, cosa que no resulta sorprendente ya que han sido desarrolladas con ese criterio en mente, en el tema de la predicción su eficacia resulta limitada, especialmente cuando se enfrentan con el alumnado privado cultural o, cuando el asunto consiste en perfilar capacidades para diseñar intervenciones adaptadas a las necesidades del alumno, situaciones en que éstas han mostrado un considerable menor éxito.

De acuerdo con Campione y Brown (1987), las principales limitaciones en este modelo diagnóstico giran en torno a:

A. Una evaluación estática y centrada en el producto .

Los tests de capacidad proporcionan o fijan el nivel actual de funcionamiento de un alumno, pero no muestran evidencia directa sobre los procesos que subyacen en esa competencia. Pueden indicarnos donde se sitúa ese alumno en un momento dado, pero no nos dicen cómo llegó hasta allí. En este sentido, solamente proporcionan una visión parcial de las capacidades del alumno, dejando fuera la zona proximal «vigotskyana» (funciones en estado embrionario; que todavía no han madurado).

De acuerdo con esta aproximación teórica, resulta necesario incorporar en el diagnóstico una valoración medioambiental, lo cual creara una zona de desarrollo proximal en la que los alumnos sean capaces de mostrar las habilidades potenciales no puestas de manifiesto por los procedimientos de valoración estática. Es la observación de esas habilidades lo que proporciona una adecuada estimación de la capacidad potencial de un alumno, incrementándose sin tal información la probabilidad de error en la estimación y valoración del alumnado.

B. Un nivel de descripción descontextualizado

En este sentido, lo realmente difícil es generar una medición medioambiental que sea significativa, es decir, que rompa con los esquemas no sólo del cuando medir (uno o varios momentos), sino del qué o reactivo con el cual medir, puesto que si el estímulo antecedente sigue siendo un elemento abstracto y ajeno al aprendizaje significativo, por mucha definición que se consiga del «mapa cognitivo» (Feuerstein, 1986), seguirán existiendo los consabidos problemas de transferencia y generalización.

Evidentemente, cuanto mas nos acerquemos con la evaluación a una situación real de aprendizaje, menos problemas tendremos con la transferencia (Kavale y Forness, 1984; Ferrara, Brown y Campione, 1986). No obstante, es necesario aceptar que, el hecho de conocer los procesos que pueden haber operado en la articulación y consecución de un determinado nivel de resolución, resulta de gran interés a la hora de determinar cual debe ser el procedimiento de intervención para conseguir una mejora en esos resultados.

Aunque los tests normativos de capacidades están centrados en el producto, no es del todo infrecuente que sean interpretados en términos de procesos psicológicos (por ejemplo, las Matrices de Raven o el test de Illinois) (Kavale, 1981). De ellos se infieren resultados que se constituyen a veces en base de intervenciones.

El problema radica en que los procesos, identificados mediante ecuaciones de inferencia predictiva, tienden a ser abstracciones vagas, extraídas de una teoría psicológica particular, con lo cual, no están relacionadas con tareas escolares y carecen de sugerencias específicas que permitan remediar y corregir la situación del alumno con dificultades escolares concretas.

Con esto no decimos que la evaluación dinámica no suponga un considerable avance en el terreno del diagnóstico; la cuestión es, simplemente, si esto es totalmente adecuado y suficiente.

Los procesos que emergen de los tests de capacidades son tan generales que puede decirse que forman parte de muchos, si no de todos, los dominios académicos. Su fórmula se centra en lo general, en las habilidades descontextualizadas, lo cual invita a la conclusión de que la enseñanza correctiva debería dirigirse a aquellos procesos que tuvieran amplios y difundidos efectos por todo el currículum.

Si este análisis fuese correcto, elevar esas habilidades supondría corregir de forma eficaz y simultánea un amplio número de dificultades escolares y desplazar a aquellas alternativas partidarias de enseñar más habilidades y competencias de dominio específico, primando, por ejemplo, el entrenamiento en habilidades de secuenciación auditiva en lugar de la enseñanza de habilidades asociadas como, digamos, la comprensión lectora.

De acuerdo con Campione (1989), la vida sería mucho más sencilla si la respuesta estuviese a nivel de habilidades generales, puesto que un único test, asociado con un único currículum resultaría suficiente para corregir todo tipo de dificultades de aprendizaje escolar. Estimamos; al igual que este autor, que la respuesta, por suerte o por desgracia, se encuentra más próxima al modelo de dominios específicos relacionados directamente con las tareas escolares concretas y que es hacia allí hacia donde deben dirigirse los esfuerzos de la evaluación dinámica o asistida.

DIAGNOSTICO CENTRADO EN LA ENSEÑANZA

El reconocimiento de una valoración dinámica de potenciales de aprendizaje escolar, y no tanto de productos puntuales, lleva asociado la necesidad de tener en cuenta dos aspectos básicos: ¿Qué se necesita conocer? y ¿Qué información precisamos? En términos de Ainscow y Muncey (1989) esto supone tener que:

A. Reconocer la complejidad del aula, lo que quiere decir que la evaluación y el diagnóstico deberán ser realistas y considerar las limitaciones a que se enfrenta el profesorado, en particular la disponibilidad de tiempo. Aun así, el énfasis debe situarse sobre la recogida de información dentro del medio habitual en el cual se desarrolla la dinámica de enseñanza-aprendizaje.

B. Considerar los resultados esperados e inesperados, al existir el peligro de centrar el diagnóstico solamente sobre ciertos aspectos que son resultado de las intenciones del profesorado, particulamente si las fórmulas empleadas en la recogida de información se basan en estructuras y categorías planificadas con anterioridad. Es importante recordar que algunas de las situaciones más significativas e interesantes que acontecen en las aulas, tanto a nivel positivo como negativo, no suelen ser previstas ni pueden ser recogidas por las exploraciones formales.

C. Organizar la posibilidad de reflejar los procesos de aprendizaje, puesto que, al igual que recogemos los resultados de lo que ocurre en el aula, es importante comprender la naturaleza de los procesos implicados. En otras palabras, debemos interesarnos en cómo aprenden los alumnos, así como en lo que aprenden y en este sentido, el profesorado deberá tratar de descubrir, también, algo más sobre sí mismo en tanto que docentes.

D. Tener en cuenta la importancia de factores contextuales, dado que los tres puntos anteriores implican que este enfoque evaluador resulta mucho más amplio de lo que hasta ahora había considerado el diagnóstico tradicional. El objetivo es descubrir cualquier factor que pueda ser utilizado dentro del aula para conseguir una enseñanza más eficaz y un aprendizaje más provechoso.

E. Valorar y aprovechar las apreciaciones de todos los implicados, para cumplir con el espíritu mantenido por este enfoque de tener en cuenta cómo pueden ser percibidas por otros participantes las situaciones del aula. La realidad no es absoluta; sino que se compone de las percepciones y explicaciones que cada uno de nosotros da a aquello que experimenta. Para intentar comprender lo que nos resulta importante, necesitamos conocer algo más lo que les supone a los demás. En concreto, necesitamos conocer las percepciones y apreciaciones del conjunto de la comunidad escolar, en especial del alumnado.

Aunque todo esto pueda parecer un tanto complejo, estamos, de hecho, argumentando por el uso de enfoques que no son nuevos. En la investigación de métodos y técnicas especiales de educación se han desarrollado habitualmente estrategias evaluadoras que desatienden y desestiman lo que los profesores saben de sus alumnos (Fernández, 1989), siendo necesario reconsiderar algunas viejas ideas y soluciones que ponen el énfasis en medios naturales de recoger información mediante observaciones, preguntas y discusiones. Estas son estrategias que el profesorado ha empleado desde que se inventaron las escuelas y los enfoques diagnósticos recomendados últimamente (Cornwall , 1985; Coupe y Porter, 1986), buscan, simplemente, integrar la exploración, la evaluación y el diagnóstico dentro del marco global del currículum escolar puesto que todo ello debe formar parte de ese proceso planificado que intenta hacer la enseñanza y el aprendizaje más eficaces.

Esto supone que la responsabilidad de la exploración y el diagnóstico corresponden claramente al profesorado. Estos deben tener la confianza para reconocer que son los profesionales mejor situados para valorar el nivel de sus alumnos y la eficacia de su enseñanza ya que la clave de un diagnóstico eficaz no es tanto la adopción de nuevas técnicas o la participación de cualificados, expertos, como la experiencia de trabajar con el alumno en el aula.

Este enfoque representa una orientación más amplia, al intentar reunir información sobre un alumno dentro de un contexto natural de dominios específicos de aprendizaje. Además, se muestra sensible al control de todos los aspectos de ese contexto mediante un sistema permanente de toma de decisiones y modificaciones, en un intento de ayudar al alumno a experimentar éxitos permanentes en su aprendizaje. En concreto, la finalidad consiste en asegurar que el currículum, tal y como es planificado y establecido, tenga en cuenta a los alumnos como individuos diferenciados, con sus intereses, experiencias y conocimientos previos e inmersos en procesos de aprendizaje particulares e individualizados.

La propuesta de esta amplia perspectiva tiene grandes implicaciones por la forma en la que el sistema educativo proporciona apoyo escolar al alumnado que experimenta dificultades en su aprendizaje. Requiere que el centro del diagnóstico sea el alumno en su medio de clase normal, que la información sea recogida mediante un proceso continuo, que los alumnos tengan un papel clave en su propia valoración y que la finalidad última del diagnóstico sea mejorar la calidad de la enseñanza y el aprendizaje de todo el alumnado.

DIAGNOSTICO BASADO EN EL CURRICULUM

Con el término «diagnóstico basado en el currículum» (DBC), se define en la literatura pedagógica la estimación de necesidades instructivas de un alumno mediante la valoración de su rendimiento en relación a un determinado currículum escolar.

La característica esencial del DBC es que, tanto la medida del rendimiento de un alumno, como la valoración y diagnóstico de sus dificultades de aprendizaje escolar, se obtienen mediante la apreciación del progreso en el propio currículum de cada centro (Tucker, 1985).

Definido dentro del encuadre de la teoría de la medición, en la que la validez curricular representa la correspondencia entre los tests y los objetivos del programa, el diagnóstico basado en el currículum une los parámetros de la exploración mediante pruebas, con la delimitación de objetivos establecidos en el currículum. Esto resulta básico ya que, tal y como muestran Jenkins y Pany (1978), la potencial discrepancia entre lo que se enseña y lo que es evaluado por las pruebas clásicas de aptitudes o de rendimiento académico, puede ser grande y puede suponer un sesgo significativo de cara a la toma de decisiones respecto al alumnado.

Lo que diferencia al DBC de otras mediciones psicopedagógicas tradicionales es que, en este caso, el estímulo material que permite la valoración del nivel de conocimientos escolares es el currículum actual del centro, en lugar de enfrentarse a un tests con items o reactivos determinados de forma genérica por el autor. En Educación Especial, al estar el currículum local o de centro adaptado a cada alumno en forma de Programa Individual de Enseñanza, el DBC establecerá la valoración de los resultados de cada alumno en relación a los objetivos prefijados en su programa. Consecuentemente, dentro del DBC, la explicitación minuciosa de los objetivos de enseñanza resulta crítica y precede y define el proceso diagnóstico.

De acuerdo con Fuchs, Fuchs y Hamlett (1989), el objetivo dicta y prefigura el material y las condiciones en las que se efectúa la valoración, la conducta a observar y el criterio para juzgar los logros académicos. Tomando el ejemplo expuesto por estos autores, si un objetivo establece la previsión de que un alumno deberá, a final de curso, leer con fluidez y comprensión el material de tercer curso, el diagnóstico basado en el currículum actuará de tal forma que, el propio material para la valoración esté compuesto por diferentes textos extraídos de los recursos correspondientes al curso; las conductas observadas y medidas durante la valoración sean la fluidez y la comprensión lectoras y el criterio establecido para juzgar el nivel alcanzado sea, por ejemplo, para la fluidez, de 70 palabras correctas por minuto, y para la comprensión, de 40 palabras bien descritas.

En virtud de la estrecha conexión que existe en el proceso entre objetivos y medición, resulta obvio que la fijación de objetivos es esencial para un eficaz diagnóstico basado en el currículum. En este sentido, las cuestiones que, según Brennan (1988), deben plantearse los profesores a la hora de determinar los objetivos de sus alumnos, se pueden concretar en lo que denomina «las 4 Rs»:

1.- ¿Son Reales los objetivos?, es decir, tienen en cuenta las necesidades educativas actuales del alumno.

2.- ¿Son Relevantes?, o será capaz el alumno de apreciar su finalidad.

3.- ¿Son Razonables?, al poseer el alumno los necesarios conocimientos y habilidades.

4.- ¿Son Realistas?, resultando previsible que el alumno pueda conseguirlos en el tiempo previsto.

Una segunda característica del DBC se sitúa en el hecho de que, para el alumnado con necesidades educativas especiales, resulta primordial el que su funcionamiento en el currículum sea mediante la consecución de éxitos y logros apreciables, debiendo erradicar al máximo los fracasos que provocan frustraciones e inhibiciones en el aprendizaje. Esto supone que el logro o la consecución de un aprendizaje debe ser definido en forma de competencias y conductas observables (ejemplo: el alumno señalará diez partes de su cuerpo). Esto permite una valoración directa del nivel de consecución curricular y una estimación del proceso correctivo en relación con el grupo de pares.

Otra importante consideración para la adopción de este esquema diagnóstico es la claridad con que permite comunicarse a los profesionales implicados en la utilización de los datos. La valoración directa del rendimiento en base al currículum, propugnada por el DBC, permite, además, establecer una fórmula de comunicación clara entre el profesorado, siendo esta ventaja igualmente aplicable a las relaciones escolares con los padres, ya que, así, los logros de sus hijos pueden ser apreciados, tanto a nivel personal, como de forma comparada con el grupo de alumnos que trabajan un mismo currículum. Este se convierte entonces en el «estándar» mediante el cual se valora el nivel académico, el progreso correctivo o el potencial escolar, elementos todos ellos que permiten una toma de decisiones educativas más congruentes.

ELEMENTOS Y FACTORES DE MEDIDA EN EL DBC

El diagnóstico, de base curricular se perfila como una fórmula eficaz para la resolución de problemas y toma de decisiones en Educación Especial, por cuanto, como venimos apuntando, la concreción de un currículum escolar, bien sea de centro o zonal, permite tomar todo tipo de referencias contextuales vinculadas a los aprendizajes definidos en el diseño, erigiéndose en una base inmejorable para medir el rendimiento real del alumno. No obstante, al adoptar un enfoque DBC, es necesario plantearse algunas cuestiones técnicas que pueden resumirse en una reflexión como la siguiente (Deno y Fuchs, 1987): ¿Cómo establecer una medición curricular del logro de un alumno de forma tal que los datos posean la fiabilidad y validez necesarias para permitir una correcta toma de decisiones en Educación Especial?

La resolución rigurosa de este planteamiento supone valorar tres elementos: qué y cómo medir y cómo utilizar los datos, y hacerlo en relación a tres factores concretos: adecuación técnica, eficacia instructiva y posibilidad organizativa.


Factor Técnico:

Qué medir: Aquellas conductas responsables de los resultados de la enseñanza y que permitan apreciar con claridad el progreso.

Cómo medir: Con procedimientos que generen datos fiables, válidos y sensibles a las mejoras a corto y largo plazo.

Cómo utilizar los datos: Mediante análisis e interpretaciones diagnósticas que aseguren una toma de decisiones válida y fiable.

Factor Eficacia:

Qué medir: La relación entre las valoraciones de las diferentes conductas y de los resultados escolares.

Cómo medir: Comprobando si procedimientos diferentes de diagnóstico producen diferencias en los resultados escolares.

Cómo utilizar los datos: Aplicando aquellas reglas de decisión que producen programas más adecuados.

Factor Organización:

Qué medir: Aquellas conductas que permitan análisis de medidas repetidas.

Cómo medir: Con los procedimientos que resulten ser más eficaces y menos intrusivos.

Cómo utilizar los datos: Con fórmulas motivantes, sencillas y eficaces.


Elementos planteados en una matriz de toma de decisiones. (Adaptado de Deno y Fuchs, 1987,p.5.)

Respecto al factor técnico, un sistema DBC debe mostrar unas características similares a las del diagnóstico normativo en cuanto a validez de criterio, es decir, una correlación elevada con otros datos actuales considerados como indicadores importantes. También debe poseer validez de contenido, lo que supone valorar conductas consideradas dentro del mismo dominio e, igualmente, deberá mostrar validez de constructo, de tal forma que la relación con las otras conductas del dominio confirmen lo esperado.

En cuanto a la fiabilidad, el DBC debe confirmar que las puntuaciones se mantienen similares en dos mediciones curriculares aplicadas mediante formas alternativas, mediante un sistema de retest o por profesores distintos.

Además de estos aspectos técnicos generales (Silva, 1989), el DBC requiere mostrar, en función de su control temporal, una fiabilidad en la inclinación o pendiente de la serie de datos, lo cual es indicativo de un cambio de rendimiento consistente. Otros aspectos técnicos a tener en cuenta son, la variabilidad intraindividual en un tiempo determinado, la relación entre el dato valorado y el objetivo especificado en el programa de enseñanza y la consistencia en la interpretación diagnóstica de los datos por parte del profesorado.

En cuanto al factor eficacia, la finalidad del sistema DBC es la de resultar útil en la corrección y superación de dificultades de aprendizaje y, si bien a nivel general, los resultados de los estudios que analizan los efectos de este enfoque sobre el rendimiento del alumno (Fuchs y. Fuchs, 1986), indican que se producen mejoras significativas, a nivel particular, la selección de los componentes curriculares relativos a una valoración concreta deberán reflejar los efectos que esos elementos tienen sobre la toma de decisiones del profesor y sobre el rendimiento del alumno.

Por su parte, la organización deberá justificar las posibilidades del sistema diagnóstico para su inclusión en el proceso de enseñanza-aprendizaje, en cuanto a tiempos de realización, momentos escolares más apropiados, fórmulas adecuadas de aplicación, etc. Por ello también deberá ser considerada como una cuestión técnica a dilucidar.

PROCESO DE MEDICION BASADO EN EL CURRICULUM

La formulación rigurosa de un sistema DBC requiere la consideración de una secuencia básica que puede concretarse en diez pasos, consistentes en:

1. Seleccionarla conducta

Para desarrollar un procedimiento DBC, el primer elemento a considerar es la selección de la conducta a medir, por ejemplo, lectura oral de un texto. Esto supone, simplemente, que para poder recoger la información curricular, es necesario haber identificado previamente aquella o aquellas conductas que deben erigirse en indicadores de nivel o de progreso académico en el alumno.

2.- Seleccionar una estrategia básica

La forma de controlar la mejora académica es una decisión esencial en el diseño de un sistema de medición. Dos estrategias posibles son, la valoración de nivel y la valoración de progreso (Deno y Mirkin' , 1977).

La valoración de nivel proporciona información sobre los cambios que experimenta la conducta de un alumno sobre una tarea de dificultad constante. En términos de Ainscow y Muncey (1983), nos situamos en la estimación de la «exactitud», o mejora del rendimiento a partir de formas equivalentes de una misma tarea.

La valoración de progreso («fluidez» para Ainscow y Muncey), requiere controlar lo conseguido por un alumno en el currículum durante un determinado período de tiempo. Este control del progreso se establece mediante la valoración periódica de un criterio de dominio. Por ejemplo, «50 palabras pronunciadas correctamente, en un minuto y con un máximo de 2 errores» podría considerarse como criterio de dominio de una determinada tarea a ser cumplida antes de progresar al objetivo siguiente.

3. Seleccionar una puntuación, un nivel de dificultad y un dominio de medida

Independientemente de la estrategia de medición empleada, en DBC se selecciona siempre un tipo de puntuación, generalmente, tasa de respuestas correctas e incorrectas o porcentajes.

Dependiendo del nivel del alumno, puede querer valorarse pequeñas unidades, como secuenciación de letras pronunciadas correctamente o unidades mayores, como palabras o frases pronunciadas. También pueden analizarse los posibles tipos de errores, o, simplemente, el número de éstos.

Si la estrategia es de valoración de nivel, deberá, además, determinarse el grado de dificultad en el que se desarrollará la medición (ej.: nivel de conocimientos, de material escolar, de edad o de curso, etc.). Este nivel de dificultad permanece constante, al igual que el criterio de valoración. También se elige el tamaño del dominio, esto es, la amplitud del material del cual serán extraídas las tareas (por ejemplo, del material del Ciclo Inicial, o de una determinada unidad o apartado de un libro, etc.).

Si la estrategia es de valoración de progreso, además de la selección de la puntuación, debe determinarse una unidad de dominio (tipo de textos, de libros, de lecciones, etc.), con el fin de asegurar, en la medida de lo posible, la equivalencia de los pasos en la valoración de la habilidad o del conocimiento.

4. Seleccionar la frecuencia y duración de la medición

Una vez fijados los elementos clave del diagnóstico curricular, deben determinarse ciertos parámetros como la frecuencia (diaria, semanal, etc.), o la duración, pudiendo ésta, o bien establecer una constante (1, 2, 3 minutos, etc.), o realizarse a partir de un número fijo de estímulos (20, 30 palabras, etc.).

5. Seleccionar un criterio o meta

En la valoración de nivel se determina el criterio de exactitud que indica cuando se ha logrado una realización correcta de la tarea establecida, por ejemplo «sin cometer ningún error», «20/21 en dos ensayos», etc. En la valoración de progreso habrá de fijarse el criterio de fluidez para cada paso u objetivo dentro de la jerarquía de habilidades o de pasos de la tarea, por ejemplo, «40 letras correctas en un minuto con un máximo de dos errores».

6. Seleccionar un procedimiento de construcción de pruebas

La prueba es un instrumento de evaluación diseñado específicamente para medir el nivel o el progreso de un alumno en una situación curricular concreta (Ainscow y Muncey, 1983). Sus características básicas pueden concretarse en que:

- Debe poseer gran número de ejemplos representativos de la habilidad, la conducta o el conocimiento a conseguir.

- Debe contener el suficiente número de elementos para permitir que el alumno no complete la prueba en el tiempo establecido, a no ser que deje de responder a algunos de ellos.

- La prueba ha de ser repetible y por esa razón deberá contener suficientes reactivos como para asegurarse contra el simple aprendizaje memorístico. Para conseguirlo basta, en muchos casos, con modificar el punto de comienzo.

- Los elementos deben presentarse en orden aleatorio, procurando así que las respuestas no se vean condicionadas por los elementos precedentes o siguientes.

- La prueba debe utilizar el mismo tipo de materiales, el mismo modo de presentación y emplear el mismo modelo de acción o conducta que se especifica en el objetivo.

7. Seleccionar el procedimiento de aplicación y puntuación

Una vez definido el sistema de medición, se establece una consideración técnica relativa a mantener un procedimiento que permita múltiples ocasiones de valoración y diseñar la modalidad de aplicación y puntuación.

En el modelo desarrollado en Coventry (Inglaterra), por Ainscow y Muncey (1983), con el fin de asegurar que la prueba sea administrada de forma fiable, se describen con claridad el contenido y las condiciones de aplicación mediante un encabezamiento en el que figura:

- Título de la prueba: descripción breve de la tarea.

- Materiales: descripción del contenido y del formato.

- Instrucciones: se escriben las indicaciones literales que ha de decir el evaluador.

- Conducta del alumno: describe la respuesta requerida del alumno.

- Puntuación: tipo de notación a emplear por el evaluador.

- Duración de la prueba: el tiempo de valoración fijado previamente y que comenzará una vez se le hayan dado al alumno las instrucciones y se le indique que comience.

Un ejemplo de esta descripción de aplicación es el siguiente:


Título de la Prueba:

VER/DECIR PALABRAS C-V-C.

Materiales:

LISTA ESCRITA DE 50 PALABRAS C-V-C.

Instrucciones:

«PRONUNCIA ESTAS PALABRAS EN VOZ ALTA, COMENZANDO AQUI (Señalar). CUANDO ACABES UNA LINEA, PASA A LA SIGUIENTE. SI ACABAS LA LISTA, COMIENZA DE NUEVO. EMPIEZA AHORA» (Marcar tiempo).

Conducta del alumno:

DECIR PALABRAS.

Puntuación:

- = palabra correcta;

x = palabra incorrecta.

Duración de la prueba:

UN MINUTO.


En el procedimiento elaborado por el Instituto de Investigación de Dificultades de Aprendizaje de la Universidad de Minnesota (Estados Unidos), (Deno, 1985; Deno y Fuchs, 1987), se establecen también unas normas fijas. Así, para medir y puntuar el nivel de fluidez de la expresión escrita se establecen los siguientes siete pasos:


1. Proporcione al alumno un lápiz y un folio para las respuestas.

2. Comuníquele las instrucciones siguientes: «Hoy quiero que escribas una historia. Primero yo te leeré una frase y, después, tú, escribirás una pequeña historia relacionada con esa frase. Dispones de un minuto para pensar sobre la historia que quieres escribir y pasado ese tiempo tienes tres minutos más para escribirla. Cuando yo diga «YA», comienza a escribir».

3. El tiempo de escritura del alumno será de tres minutos.

4. Cuando hayan pasado los tres minutos diga al alumno que deje de escribir.

5. Cuente el número de palabras o letras escritas en la composición, incluyendo las incorrectas ortográficamente. No cuente los números.

6. Registre el número de palabras o letras escritas por el alumno sobre una gráfica de intervalos iguales titulada «Número de palabras (o letras) escritas».

7. Repita los pasos 1 a 6 al menos dos veces a la semana.


8. Formulación de la meta y del objetivo de progreso

Habiendo explicitado el qué y el cómo de la medición curricular, se completa el proceso organizativo mediante la unión de todos sus componentes en una frase que delimite con claridad la conducta, habilidad o conocimiento a observar.


Meta:

En 19 semanas, X leerá en voz alta
(nombre del alumno)

80 palabras por minuto con un máximo de 6
(criterio)

errores, cuando se le presenten series de palabras del libro de lectura de 3.er, curso
(dominio, material y nivel)

Objetivo de Progreso:

X incrementará su nivel de fluidez lectora en voz alta en 2.6 palabras cada 1 semana y sin aumento de errores al mostrarle durante 1 minuto una selección de palabras al azar extraídas del libro de lectura de 3.er curso. (mismo material y nivel)


9. Resumen del sistema de medida adoptado

Los elementos más relevantes del proceso de medición generado pueden quedar sintetizados en un breve formulario anexo al currículum y al dosier del aula.

- Conducta: Lectura en voz alta del material de aula.

- Frecuencia: Al menos dos veces por semana.

- Duración de la prueba: Un minuto.

- Nivel de dificultad: Libro de 3.er curso.

- Tamaño del dominio: Vocabulario básico de 3°.

- Procedimiento de aplicación: Ver descripción (o encabezamiento de la prueba).

- Procedimiento de puntuación: Ver descripción de la prueba.

10. Análisis y utilización de datos

Ningún profesional de la psicopedagogía, por poco versado que esté en psicoedumetría (Carver, 1974), habrá dejado de apreciar a estas alturas que el DBC se encuentra claramente relacionado con el Análisis de Conducta Aplicado (Kazdin, 1978; Koorland,1986), en tanto que enfoque definido por Wheldall (1987), como «ciencia conductual de la enseñanza» o «pedagogía conductual». En esta línea, el análisis de datos del DBC se sustentará en la metodología N=1 (Kratochwill, 1978) y, concretamente, en diseños de series temporales de reversión, base múltiple, ABCDE y multitratamiento.

Recordando los pasos descritos por Lovitt (1975a,b), para aplicar el Análisis de Conducta al alumnado con dificultades de aprendizaje, previa delimitación de los estímulos antecedentes como variables relativas al docente y materiales curriculares, de los estímulos consecuentes como interacciones profesor-alumno, y de las variables ecológicas como aspectos organizativos del aula, podemos enumerar esos once pasos que dan idea de la similitud de ambos procesos.

1. Identificar con precisión la conducta o habilidad a enseñar.

2. Fijar el nivel de esta conducta, habilidad o conocimiento.

3. Planificar materiales de enseñanza.

4. Establecer datos de línea base.

5. Estudiar las respuestas correctas e incorrectas de la línea base.

6. Determinar el nivel de enseñanza.

7. Seleccionar técnicas de enseñanza.

8. Comparar los datos de la línea base con los resultados del proceso de enseñanza y decidir sobre la continuidad o modificación de la enseñanza.

9. Comparar con el criterio y decidir de; nuevo la continuidad o modificación de la enseñanza.

10. Procurar adaptar, transferir y generalizar las habilidades, conductas o conocimientos objeto de enseñanza.

11. Permitir el autocontrol de los datos de nivel y progreso.

Resulta lógico pensar que en una técnica tan minuciosa como la desarrollada por el DBC, deberá plantearse una cierta estrategia para el análisis de los datos recogidos. Este análisis se desarrolla en dos fases, registro y representación gráfica, e interpretación.

REPRESENTACION DEL PROGRESO

Una característica, común en todas las posibles variantes de aproximación al DBC, es que el progreso del alumno debe poder ser registrado en múltiples ocasiones y apreciado visualmente. Fuchs y Fuchs (1986), establecen que un control temporal sistemático produce una elevación media de 7 desviaciones estándar superior a la del alumno no controlado.

Básicamente, son dos los tipos de gráficos utilizados en el registro de datos. El modeló logarítmico, cuyo argumento de defensa reivindica que el progreso académico es proporcional y no aritmético, con lo que es predicho más correctamente por este tipo de escalamiento (Howell, Kaplan y O'Connell, 1979), y el de intervalos iguales, según es empleado habitualmente en los análisis de series temporales. Especialistas en la aplicación de estos modelos en Educación como Glass, Willson y Guttman (1975), Kratochwill (1978), o Sulzer-Azaroff y Mayer (1977), señalan que el modelo de intervalos iguales es igualmente válido, ajustándose perfectamente las líneas de regresión a las puntuaciones predichas.

Marston (1988a) ha comparado el ajuste en ambos tipos de gráficas en diversas áreas escolares, resultando, ver cuadro 1.

OBSERVACION E INTERPRETACION DE LOS GRAFICOS

Una vez que los datos han sido representados, el profesor, de forma complementaria a los análisis estadísticos que puedan realizarse, deberá resumirlos e interpretarlos para establecer un diagnóstico que determine la eficacia educativa del programa y las dificultades de aprendizaje del alumno.

Se puede valorar e interpretar la evolución de nivel reflejada en los datos en función del objetivo preestablecido por el profesor para un cierto momento. Este objetivo «estático» estará señalado en el cruce de la ordenada con la abcisa correspondiente. La dinámica de progreso se formará con la recta que une el punto del nivel con la mediana de la línea base del alumno.

La interpretación supone la aplicación de reglas como la siguiente: Si en N días consecutivos, los datos se encuentran por debajo de la recta de progreso teórico, el programa correctivo deberá ser considerado inadecuado y, por tanto, modificado, momento en el cual se traza una línea vertical en la gráfica y se dibuja una nueva recta de progreso que una el nivel del objetivo en la intersección del día medio en el que los resultados fueron inadecuados, con la mediana correspondiente a los niveles de esos días.

Se puede interpretar también la gráfica en función de la evolución de progreso del alumno, correspondiente a una serie de cambios de programas, técnicas o fórmulas de enseñanza, asumiéndose que de esta implementación de iniciativas correctivas diferentes, se podrá obtener un programa de enseñanza individual eficaz para el alumno con dificultades de aprendizaje. En este caso, los cambios de acciones serán introducidos con regularidad y valorados como tratamientos experimentales mediante la observación del nivel que el alumno alcanza en las diferentes situaciones correctivas.

En una u otra situación, los índices a interpretar son siempre la mediana, la inclinación o línea de mejor ajuste (la cual nos muestra la dinámica de progreso), la desviación o discrepancia (que nos indica el tamaño y la dirección, positiva o negativa, del cambio de nivel ocurrido entre dos Programas), y la dispersión de los datos alrededor de la línea de ajuste.

Estos índices son comparados en las diferentes fases de aplicación de programas con el fin de apreciar si un determinado cambio de enseñanza implica mejoras en el nivel del alumno. Los cambios en la mediana, el ajuste, la desviación o la dispersión, producidos entre fases, serán analizados e interpretados en un diagnóstico sobre la eficacia y la adecuación de los tratamientos correctivos.

CONCLUSION

Estimamos, como conclusión de esta exposición, la necesidad de potenciar el diagnóstico basado en el currículum como estrategia eficaz de medición, valoración y control del rendimiento educativo en el alumnado con necesidades educativas especiales.

La insuficiencia, y en muchos casos la inoperancia escolar, de los enfoques centrados en la deficiencia, así como la apreciada ausencia de validez en ciertos planteamientos correctivos derivados de un diagnóstico basado exclusivamente en tests aptitudinales (Marston, 1988b), nos obliga a los educadores a reflexionar sobre las formulaciones diagnósticas en las que el profesorado de aula sea el responsable directo de la medición del potencial académico real, por ser también este profesorado el principal agente mediador de muchas de las conductas y aprendizajes susceptibles de modificación en el contexto escolar.

En este sentido, el análisis del aprovechamiento escolar mediante instrumentos como el DBC puede, en un futuro próximo, llegar a paliar muchas de las principales carencias detectadas en los modelos de diagnóstico tradicional en base a tests normativos, como la validez curricular y las referencias dinámica, proximal y contextual, al centrarse en una adecuada relación con los currícula de aula e integrarse en la realidad diaria del proceso de enseñanza-aprendizaje. En este proceso, la actividad diagnóstica ha de ser continua y debe ser llevada a cabo por los protagonistas directos del proceso escolar.

Con ello no pretendemos negar la importancia y la utilidad que en determinadas situaciones, de carácter terapéutico y patológico básicamente, pueda tener el diagnóstico de base aptitudinal y normativo. Únicamente pretendemos fijar algunas señas de identidad de la Pedagogía Correctiva en tanto que «parte de la Educación a la que concierne la prevención, diagnóstico y tratamiento de las dificultades del aprendizaje, sean cuales fueren las causas que las originan y que impiden el anormal desarrollo educativo del alumno» (National Association for Remedial Education, 1977).

Por otro lado, diseñar un sistema diagnóstico de base curricular que sea escolarmente eficaz y posea, a la vez, la necesaria validez y fiabilidad metodológica, es evidente que no resulta tarea fácil. No obstante, el aplicar una fórmula como la toma de decisiones, en la que se utilizan adecuadas consideraciones metodológicas, escolares y organizativas, permite sistematizar el proceso diagnóstico y determinar qué y cómo medir y utilizar los datos escolares, garantizando una valoración más adecuada y una educación más centrada en las necesidades especiales del alumnado.

Además, nuestra propia experiencia en cursos de formación permanente del profesorado así como la evidencia establecida por otros autores (Fuchs, Fuchs y Stecker, 1989), sugieren que la estrategia del DBC es altamente apreciada por los profesores por cuanto:

1.Permite un adecuado control del progreso de los alumnos hacia las metas y objetivos establecidos en sus programas correctivos de enseñanza individual.

2. Resulta fácil de aplicar.

3. Es eficaz en la apreciación de los resultados producidos por un determinado programa correctivo, al permitir organizar permanentemente modificaciones parciales o globales en las metodologías, técnicas o estrategias de enseñanza.

4. Facilita la comunicación y la colaboración entre padres, profesores y alumnos.

5. Presenta, de forma absolutamente clara, la evolución del aprendizaje, pudiendo ser analizada de forma autónoma por el propio alumno, con la consecuente mejora en su motivación e interés por el aprendizaje.

Damos por supuesta la existencia de dudas, interrogantes e incluso negativas al enfoque y a la estrategia, si bien, los reproches que hasta el momentos hemos podido constatar obedecen, básicamente, a cuestionamientos de tipo teórico o axiológico, pero no experimental. Las dudas suelen responder a lo que Solity y Raybould (1988) denominan «digestión parcial», indicando con ello que, al igual que ocurre con muchas otras técnicas, el usuario no llega a apreciar los principios implicados, quedándose en lo superficial, sin concretar y particularizar la fórmula para adaptarla a su situación concreta y poder hacer un uso totalmente efectivo.

Ainscow, M. y Muncey, J. (1983). Learning difficulties in the primary school: An inservice training initiative. Remedia! Education, 18 (3): 116-124.

- (1989). Meeting Individual Needs. London. David Fulton Pub.

Brennan, G. (1988). El Currículo para Niños con Necesidades Especiales. Madrid, Siglo XXI.

Campione, J. C. (1989). Assisted assessment: A taxonomy of approaches and an outline of strengths and weaknesses. Journal of Learning Disabilities, 22 (3): 151-165.

Campione, J. C. y Brown, A. L. (1987). Linking dynamic assessment with school achievement. En C. S. Lidz (Ed.): Dynamic Assessment: An interactional approach to evaluatiog learning potential (pp. 82-115). New York: Guilford Press.

Carver, R. P. (1974). Two dimensions of tests: Psychometric and edumetric. American Psychologist, 29: 512-518.

Cornwall, K. F.. (1985). Some trends in pupil evaluation: The growing importance of the teacher's role. En C. J. Smith (Ed.): New Directions in Remedial Education, (pp. 38 -124). Barcombe. Falmer Press.

Coupe, J. y Porter, J. (1986). The Education of Children with Severe Learning Difficulties. Kent. Croom Helm.

Dale, P. S. y Cole, K. N. (1988). Comparison of academic and cognitive programs for young handicapped children. Exceptional Children, 54 (5): 439-447.

Deno, S. L. (1985). Curriculum-based measurement: The emerging alternative. Exceptional Children, 52 (3): 219-231.

Deno, S. L. y Fuchs, L. S. (1987). Developing curriculum-based measurement systems for data-based special education problem soluting. Focus on Exceptional Children, 19 (8): 1-16.

Deno, S. L. y Mirkin, P. K. (1977). Data-based Program Modification: A manual. Arlington, C.E.C.

Feiler, A. (1988). The end of traditional assessment. En G. Thomas y A. Feiler (Eds.): Planning for Special Needs (pp. 32-54). Oxford. Basil Blackwell.

Fernández, S. (1989). La percepción del profesor como predictor de dificultades de aprendizaje. Artículo remitido para su publicación.

Ferrara, R. A., Brown, A. L. y Campione, J. C. (1986). Children's learning transfer of inductive reasoning rules: studies in proximal development. Child Development, 57: 1.087-1.089.

Feuerstein, R. (1986). Learning Potential Assessment Device. Manual experimental. Jerusalem. Hadassah - Wizo - Canada Research Institute.

Fuchs, L. S. y Fuchs, D. (1986). Effects of systematic formative evaluation: A meta-analysis. Exceptional Children, 53: 199-208.

Fuchs, L. S., Fuchs, D. y Hamlett, C. L. (1989). Effects of alternative goal structures within curriculum-based measurement. Exceptional Children, 54 (5): 439-447.

Fuchs, L. S., Fuchs, D. y Stecker, P. M. (1989). Effects of curriculum-based measurement on teacher's instructional planning. Journal of Learning Disabilities, 22 (1): 51-59.

Glass, G. V., Willson, V. L. y Gottman, J. M. (1975). Design and Analysis of Time-series Experiments. Boulder, Univ. of Colorado Press.

Howell, K. W., Kaplan, J. S. y O'Connel, C. Y. (1979). Evaluating Exceptional Children: A task analysis approach. Columbus. Charles E. Merrill.

Jenkins, J. y Pany, D. (1978). Standardized achievement tests: How useful for special education? Exceptional Children, 44: 448-453.

Kavale, K. (1981). Functions of the ITPA: are they trainable? Exceptional Children, 47: 496-510.

Kavale, K. A. y Forness, S. R. (1984). A metaanalysis assessing validity of Wechsler Scale profiles and recategorizations: Patterns or parodies? Learning Disability Quarterly, 7: 136-156.

Kazdin, A. E. (1978). History of Behaviour Modification: Experimental Foundations of Contemporary Research. Baltimore, U.P.P.

Koorland, M. A. (1986). Applied behaviom analysis and the correction of learning disabilities. En J. K. Torgesen y B. L. Wong (Eds.): Psychological and Educational Perspectives on Learning Disabilities, (pp. 297-325). Orlando. Academic Press.

Kratochwill, T. R. (1978). Foundations of timeseries research. En T. R. Kratochwill (Ed.): Single Subject Research: Strategies for Evaluation Change, (p. 2-100). New York. Academic Press.

Lerner, J. (1985). Learning Disabilities. Boston. Houghton Mifflin.

Lovitt, T. C. (1975a). Applied behavior analysis and learning disabilities. Part. I: Characteristics of ABA, general recommendations, and methodological limitations: Journal of Learning Disabilities, 8: 432-443.

- (1975b). Applied behavior analysis and learning disabilities. Part. II: Specific research recommendations and suggestions for practitioners. Journal of Learning Disabilities, 8: 504-518.

Marston, D. (1988a). Measuring progress on IEPs.: A comparison of graphing approaches. Exceptional Children, 55 (1): 38-44.

- (1988b). The effectiveness of special education: a time series analysis of reading performance in regular and special education settings. Journal of Special Education, 21 (4): 13-26.

N. A. R. E. (1977). Guideliness N.°1. Reporton In-service Training. London, NARE.

Siegel, L. S. (1989). Why we do not need intelligence test scores in the definition and analysis of learning disabilities. Journal of Learning Disabilities, 22 (8): 514-519.

Silva, F. (1989). Evaluación Conductual y Criterios Psicométricos. Madrid, Pirámide.

Sulzer-Azaroff, B. y Mayer, G. R. (1977). Applying Behavior-analysis Procedures with Children and Youth. New York: Holt, Rinehart y Winston.

Solity, J. y Raybould, E. (1988). A Teacher's Guide to Special Needs. Milton Keynes. Open University Press.

Tomlinson, S. (1982). A Sociology of Special Education. London: Routledge y Kegan Paul.

Tucker, J. (1985). Curriculum-based measurement: An introduction. Exceptional Children, 52 (3): 199-204.

Wheldall, J. (1987). The Behaviourist in the Classroom. London. Allen y Unwin.

Impact factor 2022:  JCR WOS 2022:  FI = 3.6 (Q2);  JCI = 1.21 (Q1) / SCOPUS 2022:  SJR = 1.097;  CiteScore = 6.4 (Q1)