Blogia

tecnomendoza

SISMOS

Terremotos

El terremoto es con seguridad el evento natural mas catastrófico que puede interferir en nuestras vidas. En él, enormes fuerzas del interior de la tierra se liberan y producen violentas sacudidas de la superficie de la tierra que pueden devastar grandes extensiones de tierra, produciendo elevadas pérdidas de vidas humanas y la destrucción de las infraestructuras sociales e incluso modificar la topografía del terreno.

Origen

La corteza de la tierra por encima del manto magmático no es un cuerpo homogéneo, en su proceso de formación por el enfriamiento del magma se han producido grietas que separan enormes bloques de rocas conocidos como placas tectónicas. Estas grietas llamadas fallas, llegan hasta la superficie del terreno, pero no pueden verse porque están cubiertas por la capa mas externa de rocas y tierra meteorizadas. Pueden ser relativamente pequeñas pero también tener extensiones de miles de kilómetros.
En las figuras que siguen se recrea de manera muy simplificada para que se entienda con claridad, la dinámica de un sismo. Los bloques están vistos desde el aire y el color verde representa la vegetación. Si aprieta aquí podrá ver un animado del proceso.
Epicentro 
Los grandes bloques de rocas adjuntos a una falla, están sometidos a gigantescas presiones que tienden a mantenerlos apretados dificultando el movimiento relativo de unos con respecto a los otros.
No obstante, durante el proceso natural de formación de la tierra se generan en esos bloques de rocas, colosales fuerzas que tienden a desplazarlos unos respecto a los otros, las fuerzas que aprietan los bloque impiden este desplazamiento relativo soportando el empuje de las fuerzas perturbadoras durante un tiempo que puede ser de muchos años,
Lucha de fuerzas
Las flechas rojas representan las fuerzas que mantiene unidas las placas y las azules las que tienden a desplazarlas. Cuando el equilibrio se rompe los bloques se mueven y se produce un sismo
este proceso hace que se acumule gran cantidad de energía en las tensiones resultantes de la lucha de fuerzas.
Cuando las fuerzas perturbadoras superan la capacidad de la resistencia de unión de la falla, esta energía se libera y se produce el movimiento de los bloques de roca, con una gran sacudida de las rocas adyacentes.
Las vibraciones producidas conocidas como ondas sísmicas viajan en la masa de la roca en todas direcciones y es lo que se conoce como terremoto. El lugar donde se produjo la primera rotura de la
Antes del temblor
estabilidad de los bloques y que provocó su deslizamiento se llama foco y la zona directamente encima del foco sobre la superficie de la tierra epicentro.
La intensidad del terremoto dependerá de la cantidad de energía liberada cuando se produce el deslizamiento de los bloques, si la unión de estos debido a las fuerzas que los mantienen apretados es muy estable, la cantidad de energía que se acumula para hacerlos mover es enorme,  y el resultado es un violento terremoto, mas sin embargo, cuando esta unión no es muy estable, el deslizamiento se
Se rompe el equilibrio
produce con mucha frecuencia y con pequeñas cantidades de energía acumulada produciendo movimientos imperceptibles o de pequeña
magnitud que se conocen como
temblores de tierra, en general todos estos eventos se llaman sismos.

Magnitud

Durante largo tiempo los hombres han elaborado aparatos y escalas para establecer números que permitan apreciar la magnitud de un sismo. El aparato para registrar la magnitud de las

movimiento
oscilaciones del terreno durante un sismo se llama sismógrafo.
En la actualidad las dos escalas mas utilizadas son:
  1. La escala Richter, que se basa en la estimación de la energía liberada durante el sismo midiendo la magnitud de las ondas.
  2. La escala Mercalli, que se basa en cosas como el nivel de sacudidas que se sienten por las personas y la destrucción producida.

Puede resultar de mayor interés para las personas la escala Mercalli ya que da idea
sismo
de la magnitud de la catástrofe producida, y no de la magnitud mas técnicamente incomprensible de la escala Richter. Es fácil darse cuenta que para un mismo evento, el valor de cada escala puede ser notablemente diferente, así por ejemplo, un terremoto que se produzca en zonas despobladas puede ser de una gran intensidad en la escala Richter pero como no produce daños apreciables a las personas o infraestructuras resulta de baja magnitud en la escala Mercalli.
La escala Richter no establece límite para la intensidad del terremoto, todo dependerá de
sismo

la capacidad geológica de liberar energía.

En las tablas que siguen aparecen ambas escalas.


Intensidad en Escala Richter Efectos del terremoto
 Menos de 3.5     Imperceptible por las personas, pero es registrado por los instrumentos
3.5 - 5.4     Generalmente se perciben por las personas, pero sólo causa daños menores
5.5 - 6.0      Ocasiona daños ligeros a edificios
 6.1 - 6.9      Puede ocasionar daños severos en áreas muy pobladas. 
7.0 - 7.9     Terremoto mayor. Causa graves daños
8  o mayor     Gran terremoto. Destrucción total a comunidades  cercanas.


La escala Mercalli establece un límite, a partir del cual no es posible mayor destrucción.


Magnitud en Escala Mercalli

 Grado  ISacudida sentida por muy pocas personas en condiciones especialmente favorables. 
Grado II Sacudida sentida sólo por pocas personas en reposo, especialmente en los pisos altos de los edificios. Los objetos suspendidos pueden oscilar.
Grado III  Sacudida sentida claramente en los interiores, especialmente en los pisos altos de los edificios, muchas personas no lo asocian con un temblor. Los vehículos de motor estacionados pueden moverse ligeramente. Vibración como la originada por el paso de un carro pesado. Duración estimable
Grado IV Sacudida sentida durante el día por muchas personas en los interiores, por pocas en el exterior. Por la noche algunas despiertan. Vibración de vajillas, vidrios de ventanas y puertas; los muros crujen. Sensación como de un carro pesado chocando contra un edificio, los vehículos de motor estacionados se balancean claramente. 
Grado VSacudida sentida casi por todo el mundo; muchos despiertan. Algunas piezas de vajilla, vidrios de ventanas, etcétera, se rompen; pocos casos de agrietamiento de aplanados; caen objetos inestables . Se observan perturbaciones en  los árboles, postes y otros objetos altos. Se detienen de relojes de péndulo.
Grado VISacudida sentida por todo mundo; muchas personas atemorizadas huyen hacia afuera. Algunos muebles pesados cambian de sitio; pocos ejemplos de caída de aplanados o daño en chimeneas. Daños ligeros. 
Grado VIIAdvertido por todos. La gente huye al exterior. Daños sin importancia en edificios de buen diseño y construcción. Daños ligeros en estructuras ordinarias bien construidas; daños considerables en las débiles o mal planeadas; rotura de algunas chimeneas. Estimado por las personas conduciendo vehículos en movimiento.
Grado VIIIDaños ligeros en estructuras de diseño especialmente bueno; considerable en edificios ordinarios con derrumbe parcial; grande en estructuras débilmente construidas. Los muros salen de sus armaduras. Caída de chimeneas, pilas de productos en los almacenes de las fábricas, columnas, monumentos y muros. Los muebles pesados se vuelcan. Arena y lodo proyectados en pequeñas cantidades. Cambio en el nivel del agua de los pozos. Pérdida de control en la personas que guían vehículos motorizados.
Grado IXDaño considerable en las estructuras de diseño bueno; las armaduras de las estructuras bien planeadas se desploman; grandes daños en los edificios sólidos, con derrumbe parcial. Los edificios salen de sus cimientos. El terreno se agrieta notablemente. Las tuberías subterráneas se rompen.
Grado XDestrucción de algunas estructuras de madera bien construidas; la mayor parte de las estructuras de mampostería y armaduras se destruyen con todo y cimientos; agrietamiento considerable del terreno. Las vías del ferrocarril se tuercen. Considerables deslizamientos en las márgenes de los ríos y pendientes fuertes. Invasión del agua de los ríos sobre sus márgenes.
Grado XICasi ninguna estructura de mampostería queda en pie. Puentes destruidos. Anchas grietas en el terreno. Las tuberías subterráneas quedan fuera de servicio. Hundimientos y derrumbes en terreno suave. Gran torsión de vías férreas. 
Grado XIIDestrucción total. Ondas visibles sobre el terreno. Perturbaciones de las cotas de nivel (ríos, lagos y mares). Objetos lanzados en el aire hacia arriba.

 

Ondas sísmicas

Durante la ocurrencia de un terremoto y debido al movimiento de las placas se producen tres tipos de ondas:

  1. Ondas primarias o longitudinales; Las superficies de fractura de las fallas no son planas, son irregulares, con protuberancias y depresiones. Esas irregularidades hace que las placas se separen y acerquen durante el movimiento de deslizamiento mutuo en la ocurrencia de un sismo. Este movimiento perpendicular a la superficie de la falla hace que las rocas aledañas sean comprimidas por las enormes fuerzas liberadas produciendo ondas que se propagan por el material de la roca longitudinalmente en todas direcciones y largas distancias. Estas ondas primarias son de pequeña amplitud, mayor frecuencia y mayor velocidad de propagación que las otras, y viajan por el interior de la tierra. Estas ondas se van amortiguando lentamente pero son capaces de atravesar toda la tierra y poder ser registradas del otro lado del mundo. Las personas pueden percibirlas como un ruido procedente del interior de la tierra.
  2. Ondas secundarias o transversales; Debido al mismo efecto de movimiento relativo de las placas explicado en el caso de las ondas primarias, las capas de rocas próximas a la falla pueden resultar plegadas debido a las colosales fuerzas, tal y como sucede si usted separa y acerca los extremos de una cuerda. Este movimiento de plegado produce compresión transversal de las rocas aledañas a la capa plegada. Estas ondas son algo mas lentas que las primarias y también se propagan en todas direcciones principalmente por el interior de la tierra.
  3. Ondas superficiales; Cuando las ondas primarias y secundarias llegan a la superficie del terreno, su combinación puede producir ondulaciones del terreno, estas ondas son las llamadas ondas superficiales. Cerca del epicentro de un sismo la superficie puede sufrir grandes deformaciones, estas deformaciones producen ondas que pueden tener gran amplitud y que se propagan por la superficie a menor velocidad que las anteriores. Aunque  se amortiguan durante la trayectoria pueden alcanzar grandes distancias y producir elevados daños.

Como los diferentes tipos de ondas viajan a diferentes velocidades, cada una llega a los pobladores de la zona con un diferencia de tiempo que es mayor a medida que está mas lejos el epicentro del terremoto, esta diferencia de tiempo permite a los geólogos y científicos en general determinar la distancia a que se ha producido el foco del sismo.
Para un observador individual el desarrollo de un sismo comienza con la percepción de un ruido desde el interior de la tierra (llegada de las ondas primarias) que luego de torna mas grave (llegada de las ondas secundarias) luego siente las sacudidas de la tierra (llegada de las ondas superficiales). La duración de estos lapsos de tiempo da idea de la distancia del epicentro. Alguien colocado en el epicentro, no podrá distinguir las diferencias en los tiempos.

SISMOGRAFO

Sismógrafo

Un sismógrafo es un aparato que sirve para registrar la amplitud de las oscilaciones de un temblor de tierra o sismo. Los terremotos pueden producir oscilaciones del terreno en sentido vertical y horizontal, por tal motivo hay que registrar las oscilaciones en ambas direcciones.

La figura de la derecha muestra un esquema del mecanismo del sismógrafo que se usa para registrar los movimientos horizontales de la tierra durante un sismo. En una base fija al suelo y a través de un soporte rígido se cuelga de un fino hilo una gran masa, esta masa debido a la inercia prácticamente no se mueve con el movimiento horizontal de la base y la flexibilidad del hilo, por tal motivo se mantiene estática mientras la base se mueve al ritmo de las oscilaciones horizontales. Verticalmente la inelasticidad del hilo mantiene todo como un conjunto.
sismografo

Una punta muy fina que funciona como pluma de tinta va escribiendo en el papel de un tambor giratorio un trazo equivalente al movimiento relativo de la base con respecto a la pluma o lo que es lo mismo la amplitud de las oscilaciones del suelo.

La versión del sismógrafo para el registro de los movimientos verticales se muestra a la derecha. En este caso la masa inerte está fija en la punta de una fina lámina ancha, muy flexible verticalmente pero muy rígida horizontalmente. De  esta manera la masa se mantiene estática debido a la flexibilidad de la lámina en lo referente al movimiento vertical, pero sigue fielmente los movimientos de la base en sentido horizontal evitando movimiento relativo entre la aguja y el tambor registrador.
Igual que en el caso anterior una fina pluma va trazando en el papel del tambor giratorio la amplitud de las oscilaciones verticales del terreno.
sismógrafo

El amortiguador es necesario para evitar que el sistema flexible oscile constantemente a su frecuencia natural una vez perturbado su equilibrio.
Los sismógrafos profesionales son aparatos muy sensibles y que además pueden registrar las oscilaciones horizontales en cualquier dirección y no en una sola como el representado aquí.

La ética y la tecnología de la clonación

 

Sobre la reproducción de personas:

 

La ética y la tecnología de la clonación

 

Frederick Ferré (fferre@uga.edu University of Georgia, Estados Unidos

Este artículo examina especialmente los problemas éticos que plantea la clonación deseres humanos desde la perspectiva del organicismo personalista -posición filosófica inspirada en la obra de Alfred North Whitehead. En primer lugar, bosqueja el escenario que hace de la tecnología de la clonación humana una posibilidad tecnológicamente realizable y describe las reacciones que despierta. En segundo lugar, analiza diferentes modelos para pensar a los clones humanos. En particular, discute los presupuestos metafísicos que subyacen tanto a la atribución como a la negación del estatuto de persona humana a los clones humanos. Finalmente, presenta la perspectiva filosófica del organicismo personalista y argumenta por qué razones tenemos que tratar a los clones humanos como personas completas

 

Revista CTS, nº 5, vol. 2, Junio de 2005 (pág. 125-140)

 

Cuando hace menos de diez años fue presentada al mundo Dolly, la ovejita creada por Ian Wilmut, muchos se estremecieron. Hasta entonces, la biotecnología había caratulado como “imposible” la idea de clonar mamíferos a partir de tejidos adultos especializados. Ciertamente, ya se sabía que todas las células contienen el código de ADN de la totalidad del organismo, pero los expertos estaban convencidos de que el proceso de especialización -en el que las células se convierten en huesos, cerebros o pechos- incapacitaba a estos ADN “usados” para realizar nuevas tareas reproductivas. Wilmut, cuyo nombre será largamente recordado en el panteón de los seres que lograron conmover al mundo, perseveró a pesar de las opiniones que había recibido al respecto y demostró que su proyecto podía ser llevado a cabo. Recientemente, ha solicitado permiso a las autoridades de su país para producir embriones humanos clonados con fines terapéuticos La receta básica que Wilmut utilizó para crear a Dolly fue la siguiente. En primer lugar, se tomó una célula adulta especializada (en este caso, una célula mamaria extraída de la ubre de una oveja Finn Dorset de semblante blanco) y se la privó de nutrientes para dejarla inactiva. En segundo lugar, se tomó un óvulo de una oveja Scotish Blackface y se le quitaron todas sus cadenas de ADN, eliminando de la célula-huevo todos los rasgos genéticos propios de las Scotish Blackface. Una vez que esto estuvo preparado, la célula mamaria inactiva, con todo su intacto ADN de Finn Dorset, fue introducida debajo de la delicada membrana que recubre al óvulo cuyo tamaño es muy superior. Luego, se aplicó una descarga eléctrica sobre ambas células para abrir sus poros e iniciar su desarrollo. El contenido de la pequeña célula mamaria, portadora del código de la oveja Finn Dorset, se abrió camino entre los poros abiertos de la célula-huevo, y el óvulo de la Blackface -creyendo bajo engaño que había sido fertilizado- comenzó a dividirse de acuerdo con las instrucciones impartidas por su nuevo ADN de la oveja Finn Dorset A partir de ese momento, se siguieron las etapas habituales del desarrollo in Vitro  que podrían resumirse de la siguiente manera. Al principio, las células del embrión sólo se reproducen sin especializarse, pero después de seis días se dirigen hacia una esfera hueca llamada blastocito, una formación que surge justo antes de que las células comiencen a diferenciarse dentro del organismo en gestación. Al llegar a esta etapa, el equipo de Wilmut implantó el embrión en desarrollo en el útero de una oveja Blackface. A su debido tiempo, y tras un parto normal, la madre sustituta Blackface dio a luz a la encantadora ovejita Finn Dorset, de blanco semblante, que el mundoconoció con el nombre de Dolly, así llamada en honor a Dolly Parton, el ejemplar humano con el sistema más prominente de glándulas mamarias. Junto con la oveja6LL3 (la forma más prosaica con la que se conoció a Dolly), apareció el genio de la clonación de mamíferos adultos, irreversiblemente liberado ahora de su botella de supuesta imposibilidad técnica.

 El mundo recibió la noticia del triunfo de Wilmut con una mezcla de asombro y preocupación. A pesar de que el Roslin Institute, localizado en las cercanías de Edimburgo, donde el equipo de Wilmut realizó su histórico trabajo, se dedicaba exclusivamente al mejoramiento genético de animales de granja para brindar a los humanos mejores carnes, huevos, leche y lana, la reacción inmediata fue (como era de prever) antropocéntrica, aunque en otros sentidos. Seguramente, Wilmut pudo haber soñado con clones de vacas capaces de dar leche descremada directamente de sus ubres, pero mucha gente, enterada de la existencia de Dolly, se sintió perturbada por la pesadilla de Frankestein Las encuestas de opinión pública realizadas en los Estados Unidos después del anuncio mostraron un rechazo de la clonación por parte de dos tercios de la población. Ante la pregunta de si la clonación era “algo bueno o malo”, el 64% de los Republicanos respondió que se trataba de “algo malo”; y en extraña armonía bipartidaria, el 65% de los Demócratas contestó lo mismo. Sólo el 23% y el 21% respectivos consideraron que se trataba de “algo bueno”. Si bien esta encuesta no se refería directamente a la clonación humana, una encuesta previa centrada en este tema, realizada unos días después del anuncio de Wilmut, reveló que el 87% de los norteamericanos cree que su práctica debería ser prohibida, mientras que el 93% no escogería ser clonado. Las razones detrás de la consternación y la repugnancia no son difíciles de hallar Algunos basan su rechazo en el narcisismo que podría desenfrenadamente aflorar si los ricos y poderosos comenzaran a clonarse a sí mismos con el propósito ególatra de encontrar la inmortalidad biológica en serie. A otros les preocupa la posibilidad de que los intereses económicos deriven en la clonación de grandes atletas y otros ídolos de la cultura pop -cantantes de rock, estrellas de cine, etc.- y, peor aún, que estándares temporarios y provincianos de belleza y excelencia humanas puedan ser congelados en carne y hueso. Esto podría sesgar la población humana y disminuir la riqueza y robustez de la reserva genética de nuestra especie. Sin duda, saldrían a la superficie las preferencias racistas, y aquellos que poseen el poder y el dominio de esta tecnología la usarían, sin pensarlo demasiado, para distorsionar la historia genética de la humanidad, reflejando sus prejuicios concientes e inconscientes Este  rechazo  generalizado  es  provocado  también  por  temores  aún  más espeluznantes. Hay quienes imaginan que la clonación podría constituir un método para crear una clase inferior, los Clones (o “Replicantes”, como se los llamó en la película Blade Runner), que estaría al servicio de una clase superior de “gente real”, producida a través del método sexual tradicional. Algunos suponen que estos seres deliberadamente diseñados serán propiedad de sus creadores, quedando, en última instancia, esclavizados a sus diseñadores. De un modo todavía más aterrador, algunos piensan que los Clones podrían ser mantenidos como meros criaderos de órganos, fabricados y cultivados para utilizar sus partes por personas que se anticipan a la necesidad de transplantes de corazón, riñones, hígados o pulmones La creación y reserva de órganos y partes genéticamente idénticas a uno mismo evitaría el riesgo de rechazo de un órgano trasplantado y aseguraría un veloz abastecimiento de órganos en caso de necesidad Para otras personas, en cambio, el anuncio de la aparición de Dolly fue motivo de alegría. Durante mi curso sobre “Tecnología y Valores”, cuando surgió la noticia, una estudiante de grado comentó: “al menos así podremos deshacernos de los hombres”. En el futuro, las mujeres podrían usar parte de su propio tejido para brindar el ADN necesario para su propia reproducción, ¡e incubar luego a su vástago “gemelo” en su propio útero! La alumna celebraba incondicionalmente este desarrollo. Por el contrario, algunos de mis estudiantes varones se mostraron menos entusiastas. El halo fantástico que circunda a estos pensamientos sobre la clonación no debe ser simplemente descartado por sonar a ciencia-ficción. Lo que es ficción para una generación, se convierte en realidad para la siguiente. El éxito de Wilmut abre otra puerta que requiere de decisiones éticas por parte de la humanidad y plantea enormes interrogantes que ni el público ni los políticos están preparados para responder. Algunos esperan que el genio sea regresado sano y salvo a su botella.

Pero la tecnología ha llegado y debemos lidiar de la mejor manera posible con la nueva situación. Tal vez sea útil darnos cuenta de que la clonación no es tan nueva como los primeros  informes  de  Edimburgo  parecieran  sugerirlo.  Sin  generar  la  menor controversia, se vienen llevando a cabo desde hace tiempo tareas de clonación en vegetales. La reproducción vegetal por medio de tejido adulto, más que a través de cultivo sexual, es una herramienta útil que despierta escasos cuestionamientos éticos o metafísicos. Si uno de estos experimentos con vegetales sale mal, tendremos pocos escrúpulos para deshacernos de los materiales de desperdicio.

 También en la ciencia animal se han venido realizando procedimientos bastante similares a la clonación a partir de tejidos adultos. La fecundación in vitro ha sido ampliamente practicada desde hace tiempo. La división de tejido fetal, en un plato de petri, para producir mellizos -o embriones aún más idénticos entre sí- y llevarlos a término, es otra técnica comúnmente empleada por los genetistas así como por quienes realizan experimentos. Estos procedimientos, naturalmente, constituyeron un gran avance para la clonación de ADN adulto, pero al igual que muchos otros logros de la ciencia, recién ahora encajan dentro del contexto tecnológico que estaban esperando.

 Si se logra perfeccionar la clonación de adultos, los beneficios esperables son incluso mayores para la ciencia animal. Por ejemplo, el calendario de los criadores de ganado se verá considerablemente acelerado si se puede reproducir a un espécimen adulto ya conocido. El inversor enfrentará menores riesgos y tendrá un menor tiempo de espera para obtener el retorno de su inversión. Además, cada vez que un rasgo deseado fuese hallado en un espécimen, podría preservárselo adecuadamente así como trasladarlo a través de la clonación, sin necesidad de preocuparnos por la aleatoriedad mendeliana. Incluso más, con la manipulación genética y la clonación, se podrían diseñar animales para la producción de determinadas sustancias escasas, como la insulina, tan necesaria para la medicina Tal vez con la tecnología de la clonación puedan ser diseñados órganos apropiados para trasplantar a las personas enfermas que los requieran.

 Estos beneficios previstos no escaparán del cuestionamiento ético. Para que una oveja o (más posiblemente) un cerdo genéticamente diseñado pueda “donar” su corazón a un ser humano convaleciente, el animal deberá ser, eventualmente, “sacrificado”. Entonces,  surgirán  inevitablemente  discusiones  en  torno  a  “los derechos de los animales”, dado que tanto las vacas como las ovejas y los cerdos son organismos inteligentes, sensitivos y sujetos de sus propias vidas. No sólo la matanza, sino también el cuidado y el bienestar de los animales clonados -al igual que el cuidado y el bienestar de sus homólogos naturales- plantean cuestiones éticas profundas para aquellos que se toman en serio la obligación humana de minimizar el sufrimiento y maximizar la satisfacción de toda experiencia, dondequiera que ella se encuentre. Estas cuestiones remuerden nuestra conciencia, pero la clonación no es su única causa.

 En cierta medida, esto muestra cierto parentesco con la ética de la clonación humana. No todos los asuntos carecen de precedentes. Cuando la Comisión Nacional Asesora en Bioética sugirió al presidente Clinton que prohibiera por ley toda investigación que incluyera la implantación de clones de embriones humanos en el útero de una mujer (Wilson, 1997), una de sus preocupaciones residía en la posibilidad de que se generasen monstruosidades humanas y que luego hubiera que lidiar con problemas delicados derivados de los experimentos fallidos. Por ejemplo, ¿debería practicarse el aborto en los casos en los que el experimento fallase? ¿Debería aplicarse la eutanasia? ¿Institucionalizada? Seguramente, habría muchos errores. Para producir a Dolly, el equipo de Wilmut comenzó con 277 células amalgamadas, de las cuales sólo 30 empezaron a desarrollarse. Veintinueve blastocitos fueron implantados en úteros sustitutos, pero sólo uno de ellos logró crecer y convertirse en una oveja saludable. En cualquier desarrollo tecnológico, la presencia de desperdicios es una certeza. ¿Pero qué hacemos cuando el material de desperdicio es un embrión humano viable? Antes de entrar en este cuasi familiar atolladero ético, la Comisión Nacional decidió echarse atrás, aunque (curiosamente) no recomendó la prohibición de las investigaciones que incluyeran tejido fetal humano  en  etapa  de  pre-implantación,  siempre  y  cuando  éstas  estuvieran financiadas por el sector privado -mientras que sí recomendó la prohibición para los casos en los que el financiamiento fuese público.

 En otro sentido, los problemas éticos están tan emparentados como los gemelos idénticos. En cuanto a su identidad genética, dichos gemelos, derivados de la misma célula-huevo, tienen mucho en común con los clones, puesto que comparten exactamente el mismo código de ADN. No obstante, no son clones en sentido estricto, en el sentido de que no son producidos por medio de ingeniería ni asexualmente. También se diferencian del caso de Dolly en el hecho de que, al menos hasta ahora, los gemelos idénticos han normalmente compartido el mismo ambiente uterino y han sido de la misma edad. La “gemela” de Dolly, el ancestro adulto cuyo código de ADN comparte exactamente con Dolly, no sólo era seis años mayor que Dolly sino que no crecieron juntas en el mismo útero. En el mundo post-Wilmut tendremos que acostumbrarnos a hablar de gemelos idénticos de edades diferentes, nacidos en tiempos ampliamente distanciados y, posiblemente, de distintas madres.

Permitámonos hacer el supuesto realista de que la clonación humana será lograda dentro de no mucho tiempo en algún lugar del mundo con o sin regulaciones bienintencionadas, pero que no se pueden hacer cumplir. Las barreras técnicas no son precisamente elevadas, considerando el estado actual de la biotecnología. El atractivo de ser el primero en lograrlo es extremadamente grande y habrá diversas recompensas más allá de la fama. Debido a que se permitirá que las investigaciones sigan avanzando hasta la fase de implantación de lo que sería, en caso de seguir, un embrión viable, podemos conjeturar que una vez llegada esa instancia, la tentación de realizar el implante será irresistible. Obviamente, habrá “desperdicios”, pero no todo el mundo es consciente de estas cosas, y tarde o temprano (y me animo a adivinar que será más bien temprano) nacerá una versión humana de Dolly, la primera de muchas.

¿Cómo trataremos al primer neonato humano clonado? ¿Será considerado propiedad del equipo del laboratorio o de la compañía que fraguó su existencia?

¿Traerá con su arribo una avalancha de patentes? Esto seguiría el camino que recorrió el modelo de clonación de la oveja. Sin embargo, genéticamente se trata de un bebé humano. ¿Estamos preparados para tratar a algunos humanos como bienes? Durante la mayor parte de la historia de la humanidad, algunos humanos han sido  propietarios  de  otros  humanos.  Sólo  recientemente,  en  la  época  post- iluminismo, las sociedades dominantes comenzaron a rechazar en principio las relaciones de servidumbre. Sin embargo, aún en la actualidad persiste la esclavitud en  varios  lugares  del  mundo.  ¡Cuánto  más  triste  que  irónico  sería  que  la biotecnología de nuestra era post-iluminismo nos llevara nuevamente a aquellas prácticas y formas de pensar! Esto es lo que suponen aquellos que se imaginan a los clones como propiedades, como zombis inconscientes o como clones que son “criados” por sus órganos, Debemos reconocer que existen, hoy en día, enormes presiones del capitalismo triunfante que nos hacen mirar las cosas a través de la óptica del mercado y con los reflejos de propiedad listos para ser aplicados. Si diseñamos algo y lo fabricamos, nos pertenece ¿no es cierto? Un clon es algo que se diseña y se fabrica. Tenemos  derecho  a  disponer  de  los  clones  de  la  manera  que  nos  parezca conveniente. ¿No es esto obvio? Espero que las intuiciones éticas de mis lectores los hagan aclamar conmigo: ¡No, de ninguna manera! Los filósofos de la tecnología están especialmente calificados para elevar una protesta ética. Que algo sea un producto de un proceso tecnológico-esto es, que un propósito inteligente haya sido un factor significativo en la historia causal de ese producto- no lo deja automáticamente desprovisto de su valor inherente. Todo lo contrario. El principio de justicia establece que las desigualdades significativas en el trato deben ser permitidas sólo donde las diferencias moralmente relevantes justifican la discriminación. ¿Existen tales diferencias entre clones y no- clones? Resulta difícil imaginar cuáles podrían ser. El cuerpo de un individuo humano clonado solamente diferirá de su “gemelo” mayor (el donante de ADN) sólo históricamente, en relación con la primera fase del óvulo, en tanto que éste fue amalgamado en vez de fertilizado, seguido de unos pocos días de desarrollo en un plato de petri. ¿Es suficiente esta historia genética temprana para justificar la pérdida de derechos, un status social de segunda clase, o incluso más, la muerte por “donación” involuntaria  de  órganos  vitales?  ¿Es  esa  diferencia  moralmente relevante?

No encontraremos repuesta a estos problemas en ningún libro milenario. Se trata de una cuestión sin precedentes y la sociedad es quien necesita decidir. Algunas sociedades,  lamentablemente,  han  basado  importantes  discriminaciones  en diferencias triviales. Tiempo atrás, los griegos intentaron justificar la esclavización de los “bárbaros” porque no hablaban bien su idioma; los occidentales blancos modernos intentaron justificar la esclavitud de hombres y mujeres basándose en la frágil excusa de la diferencia de color de piel. Pero después de años de conflictos atroces, el juicio dominante estableció (al menos por ahora) que éstas no eran diferencias moralmente relevantes. Debemos ser advertidos, no obstante, de que no es  correcto  suponer  que  las  decisiones  éticas  tomadas  por  una  sociedad permanecerán por siempre firmes. Necesitan ser continuamente reafirmadas para no perderse en el olvido.

Cuando los clones aparezcan entre nosotros, pensarlos bajo el modelo de gemelos humanos idénticos, en vez de bajo el modelo de animales de cría, tal vez nos ayude a darnos cuenta de que los clones humanos serán, después de todo, personas humanas. Nos estremecería pensar que un gemelo idéntico pudiese reclamar el uso del otro como un mero criadero de órganos. Cada gemelo tiene el mismo derecho a disponer de sus propios órganos. Esto parece obvio, pero ¿por qué tienen el mismo derecho? ¿Se debe meramente al hecho de que tienen la misma edad? Si uno de ellos naciera una hora después que el otro, ¿justificaría esto que el primero disponga del segundo como si fuera un bien? De no ser así, ¿por qué el mero paso del tiempo entre  los  nacimientos  constituye  una  razón  moralmente  relevante  para  una discriminación tan perniciosa?

Considérense las otras diferencias. Haber pasado unos pocos días en un plato de petri como embrión ¿es suficiente para despojar a un adulto de la protección que le brindan los derechos civiles y humanos? La respuesta negativa es obvia en una era en la que hay bebés de tubos de ensayo. Sus historias genéticas tempranas pueden ser artificiales, pero no por ello esos bebés son impostores. Sin importar cuántas intervenciones inteligentes jueguen un rol causal en la gestación, el proceso tiene como resultado el nacimiento de niños reales (Ferré, 1995).

Finalmente, ¿podría la mera ausencia de un padre en la historia genética inmediata del clon (en algún punto hubo paternidad) constituir una diferencia moralmente relevante,  una  diferencia  que  justifique  la  esclavitud  o  alguna  de  las  otras discriminaciones? ¿Cómo podría ser sostenido un argumento de esta clase? Los clones contienen el complemento completo de ADN humano. Sin embargo, en el caso  de  los  clones,  éste  no  fue  generado  por  la  lotería  sexual  que  opera Sobre lo “natural” y lo “artificial, habitualmente. Esa es la única diferencia. Esta diferencia no hace que el individuo resultante sea menos completo. No necesitamos ser radicalmente feministas, como mi estudiante -que ya se estaba regocijando con la irrelevancia de los hombres- para rechazar la idea chauvinista de que la mera ausencia de un padre justificaría daño alguno a lo que de otra manera hubiera sido una persona humana en su totalidad.

La intuición de que los clones humanos serán personas humanas permanece.

Merecerán  las  mismas  consideraciones,  los  mismos  derechos  y  las  mismas protecciones que cualquier otra persona pueda con toda razón reclamar. Pero, ¿hay una base más profunda para esta intuición?  Y, por el contrario, ¿hay algo en las personas clonadas que justifique su discriminación con respecto a los animales de cría -en este caso, con respecto a Dolly? Dolly es, sin duda, la propiedad de alguien, de la misma manera que nuestras intuiciones morales nos indican que los clones humanos, al ser personas, no deben pertenecer a nadie. Pero ¿es justo esto? Si el principio de justicia les prohíbe a los no-clones discriminar a los clones, ¿cómo puede el mismo principio permitir a la vez la discriminación entre clones humanos y ovejas clonadas? ¿Por qué, en un sentido más profundo del “por qué”, deberíamos sentirnos obligados a tratar a las personas de manera diferente de los animales de cría? Sin una diferencia moralmente relevante, la discriminación sería arbitraria e injusta. Esto nos conduce de la ética a la metafísica de la condición de la persona.

Al adentrarnos en aguas nunca antes navegadas, la sociedad necesita de filósofos capacitados, al menos para que actúen como críticos frente a las respuestas irreflexivas que se dan ante cuestiones metafísicas que conllevan una gran carga ética. La metafísica popular abunda. Cuando aún se encontraba en funciones, el presidente de los Estados Unidos, Clinton, ofreció un preámbulo metafísico a su orden de prohibición de utilizar los fondos federales para la investigación sobre clonación humana cuando dijo: “Ningún descubrimiento que toque la creación humana es simplemente una cuestión de investigación científica. Se trata de un asunto que atañe también a la moralidad así como a la espiritualidad. Cada vida humana es única, nace de un milagro que va más allá de la ciencia experimental.

Creo que debemos respetar este enorme don y resistir la tentación de reproducirnos a nosotros mismos”.El presidente Bush, su sucesor, no fue menos sincero respecto de estos motivos teológicos.

Sin lugar a dudas, la afirmación de Clinton podría dar comienzo a un diálogo filosófico, pero ningún filósofo estará conforme con esta afirmación tal como ella fue enunciada. Clinton cita la “singularidad” como clave de la diferencia moralmente relevante entre las personas y las no-personas; y la singularidad es realmente un rasgo sobresaliente de las personas, pero lo que realmente importa no es la mera singularidad sino, por el contrario, la clase de singularidad que gozan las personas.

Si alguien entre los actuales protagonistas puede solicitar la reivindicación de su carácter singular, ésa es Dolly, el primer clon mamífero exitoso. Pero Dolly no logrará el voto o la protección para evitar ser tratada como un bien -es demasiado valiosa en la práctica (¡pero no por la manera en que la ve la industria de la carne!) para ser desperdiciada  en  chuletas  de  cordero-  por  el  mero  hecho  de  gozar  de  su singularidad. Dolly es singular, pero no al modo en que las personas son singulares.

Clinton hizo también referencia a la palabra “milagro”. Se trata de un término más difícil de evaluar para los filósofos. En uno de sus sentidos, un milagro es algo completamente opaco a la razón, y pretende significar precisamente eso -una barrera a la discusión interpuesta en el camino del entendimiento. Los filósofos, como críticos de la confusión, están obligados a señalar esto. Pero esta no tiene por qué ser la intención de la palabra. Según otra de las acepciones del término, cada nueva vida es motivo de asombro y sobrecogimiento -un milagro de complejidad hecha unidad que funciona mediante diferenciación y afinidad interna. En ese sentido, sin embargo, los orígenes de Dolly -y no sólo aquellos de los seres humanos- son dignos también de asombro y sobrecogimiento. Este milagro de vida no convierte por si solo a Dolly en una persona, pero nos recuerda que los animales que no son personas (y otros seres vivos) puede que merezcan mucho más respeto del que nuestras prácticas corrientes de mercado les dispensan.

Una función positiva de la afirmación del presidente Clinton fue desafiar, de una manera  altamente  visible,  la  extendida  metafísica  popular  del  cientificismo reduccionista, su oponente implícito y, además, el blanco de su negativa a que el tema de la clonación humana pueda ser considerado “simplemente una cuestión de indagación científica”. La evocación del presidente de “la moralidad así como la espiritualidad” deja en claro que las categorías del materialismo eliminativo no son, según su estimación, lo suficientemente abarcativas para constreñir la elaboración de una política pública satisfactoria.

Coincido con esta opinión. Pero todos los que nos dedicamos a la filosofía somos conscientes de lo fuerte que puede ser la atracción gravitacional del materialismo eliminativo, aun para aquellos que se esfuerzan por escapar de él. Considérese, por ejemplo, la reciente invasión de nuestro campo por los zombis -o, más precisamente, por los experimentos mentales acerca de los zombis. Mirado con superficialidad, esto podría parecer una inocente diversión, pero en realidad revela profundas deficiencias  en  lo  que  podría  ser  llamado  el  moderno  paradigma  metafísico subyacente.

La crucial presunción moderna, que prácticamente todos los filósofos de moda parecen compartir, es que cuando se aborda la cuestión de los constituyentes elementales del universo natural, éste es tratado, “por defecto”, como privado completamente de internalidad - como los zombis, para quienes, según la nueva frase famosa de David Chalmers, “todo es oscuridad en su interior” no sólo discute el caso de los zombis extensamente sino que ha estimulado una amplia literatura en un corto tiempo. Internet ha ayudado en gran medida a esto último. Chalmers ha establecido un sitio en la red en el que compila el actual acervo sobre zombis “No hay nada que sea lo que es ser un zombie”. Este paradigma de oscuridad por defecto produce que la experiencia en la naturaleza constituya un problema inmenso- y aún no resuelto- para aquellos que permanecen atascados en este modelo mundial moderno Owen Flanagan, del departamento de filosofía, psicología y neurobiología de la Universidad de Duke, y Thomas Polger, del departamento de psicología de la misma universidad, ilustran bellamente este “atascamiento” en su artículo, “Zombies and the Function of Consciousness” (Flanagan y Polger, 1995). En este artículo elogian la utilidad de los experimentos mentales sobre zombis diciendo que echarán luz sobre “la no-esencialidad de la conciencia”, punto de vista que ellos adoptan. Supuesto este punto de vista, los autores señalan que dentro de su paradigma, para el cual la oscuridad es la condición por defecto y la experiencia completamente no-esencial (esto es, no ocurriría nada de otra manera si todo el devenir consciente fuese eliminado del mundo), el problema no es meramente mostrar cómo “los estados mentales podrían dar lugar a estados fenoménicos” (aunque, reconocen, esto sólo ha devenido un problema suficientemente intratable), sino aún peor, señalar por qué “es que llegaron a existir criaturas conscientes. ¿Por qué la evolución dio como resultado criaturas que fueron más que sólo informacionalmente sensibles? No hay, hasta donde sabemos, buenas teorías al respecto...” (ídem: 325). Estos autores estipulan que somos, en efecto, conscientes. Pero luego agregan: “asumiendo que esto es verdad, pero también que es verdad que no hubo necesidad metafísica, lógica o nómica en hacernos así, ¿por qué la Madre Naturaleza se decidió por ‘hacernos sujetos de experiencia’como una buena solución estratégica para nosotros, y muy posiblemente para otros numerosos mamíferos y otros géneros?” (ídem). Los autores no tienen la respuesta. Y, dada su asunción de que la experiencia es metafísica, lógica y nómicamente irrelevante, hay una baja posibilidad de que encuentren alguna.

David Chalmers agrega el supuesto explícito de la “irrelevancia explicativa” a su tratamiento de la no-esencialidad de la conciencia, que se sigue inevitablemente de su no cuestionada aceptación de la oscuridad por defecto de la naturaleza junto con un supuesto adicional acerca del carácter “causalmente cerrado” del orden físico.

Para cualquier actividad que parezca requerir explicación en términos de su devenir experiencia consciente, concluye el autor, debe haber una explicación completa que deja a la experiencia fuera de la explicación. “Ciertamente, no conocemos ahora los detalles de la explicación”, admite, “pero si el campo de lo físico está causalmente cerrado, entonces habrá alguna explicación reduccionista en términos funcionales o físicos” (Chalmers, 1996: 178). Esa será la explicación que plenamente dé cuenta de cómo los zombis pueden hacer y decir todo lo que nosotros decimos y hacemos, mientras  permanecen  en  el  estado  de  oscuridad  por  defecto;  también (lamentablemente) será la explicación que dé cuenta plenamente de todo nuestro comportamiento y discurso no-zombi -dejando a nuestra misteriosa conciencia revolotear de modo irrelevante como un dominio extra de bruta realidad experiencial.

Esta clase de discurso motiva en John Searle y Daniel Dennett -aliados por una vez- arrebatos de rechazo, aunque por razones bastante diferentes. Dennett rechaza como inimaginables los zombis del tipo propuesto por Chalmers, dado que para él representan una distinción sin una diferencia con respecto a nuestra situación humana real. Para él, las diferencias importantes son las existentes entre los simples emisores de comportamientos “oscuros”, como las polillas de la luna (a los cuales aceptará  llamar  “zombis”, si  debe  hacerlo),  y  los  c o m p l e j o s emisores  de comportamientos “oscuros”, como nosotros mismos, a los cuales prefiere llamar “zimbos” (Dennett, 1995). Flanagan y Polger estaban equivocados, según Dennett, al suponer  que  hay  alguna  diferencia  entre  la  “sensibilidad experiencial” y  la “sensibilidad informacional”. Por lo tanto, concluye Dennett, Flanagan y Polger agravan este error cuando preguntan cuál sería la ventaja adaptativa de la conciencia (cuando se la contrasta con la mera ‘sensibilidad informacional’)” (ídem). Dennett está tan entusiastamente a favor del moderno paradigma de la oscuridad interior que rechaza cualquier diferencia entre los zimbos y nosotros. Si esto fuera reductio ad absurdum, sugiere, ¡entonces vayamos a fondo! Muy bien. Acepto su desafiante invitación. Con Searle, Chalmers, Flanagan, et al., creo que “absurdo” es la palabra adecuada -que indica un completo callejón sin salida para el paradigma moderno de la oscuridad por defecto. John Searle dirige su propia arma de reductio contra el discurso de Chalmers acerca  de  los  zombis,  caracterizándolo  como  un  esfuerzo  fútil  para  pegar conjuntamente el fisicalismo reduccionista, el funcionalismo y la Inteligencia Artificial Dura con los hechos innegables y auto-luminosos de la experiencia subjetiva fenoménica. Searle, a diferencia de Dennett, considera a lo fenoménico como primario; y, a diferencia de Chalmers y sus amigos, considera al funcionalismo como una teoría poco meditada. Lo que más parece irritar a Searle es la presupuesta irrelevancia explicativa de la conciencia -el “no-esencialismo de la conciencia”- que subyace al hecho de tomar a los zombis seriamente, incluso en el pensamiento. Casarse es un comportamiento que podría ser imitado con exactitud por mi gemelo zombi no consciente; así, cuando me caso, la explicación, de acuerdo con la absurda teoría de la irrelevancia, puede no tener que ver con estar conscientemente enamorado de mi novia. Incluso sentir un dolor de muelas debe ser, en esta teoría, explicativamente irrelevante para mi decir “siento un dolor de muelas”, dado que mi discurso es “un evento físico en el mundo como cualquier otro y tiene que ser explicado enteramente por causas físicas” (Searle, 1997: 48). El compromiso de Chalmers con el programa funcionalista de moda lo induce a saltar sobre el precipicio antes que tener que admitir que el camino se terminó. Searle concluye: “un mérito de Chalmers es que ve las consecuencias de sus puntos de vista; un demérito es que no ve que estos son absurdos”. Coincido mayormente con Searle. Más allá de las cegueras teóricas, debería ser obvio que la experiencia es un ingrediente causal y un factor explicativo en el mundo físico. La tarea del filósofo no es negar lo obvio, sino intentar comprender cómo es que es de ese modo. Sólo desearía que Searle no hubiera debilitado su posición por unirse gratuitamente a sus oponentes al aceptar el moderno paradigma de la oscuridad y la condición por defecto en la naturaleza. Dice Searle: “la conciencia es sobre todo un fenómeno biológico y está tan restringida en su biología como la secreción de bilis o la digestión de carbohidratos” (ídem: 50). Pero eso es decir demasiado  poco.  Es  verdad  que  la  única  conciencia  de  la  que  devenimos conscientes está basada en nuestra propia biología. Sin embargo, nuestra capacidad de ser conscientes de nosotros mismos, del mundo, y de las posibilidades no realizadas -y nuestra capacidad de hacer que pasen cosas nuevas sobre la base de esa conciencia- es cualitativa y causalmente inconmensurable con la bilis y la digestión. Nuestro nivel humano de toma de conciencia está basado en un proceso biológico  posibilitado  por  la  biología  compleja  del  sistema  cuerpo-cerebro distintivamente humano. Pero no es totalmente absurdo imaginar que procesos biológicos más simples podrían implicar órdenes más simples y más difusas de conciencia. Nada es más plausible que reconocer la (a menudo no tan difusa) sensibilidad de nuestras amigables mascotas.

 Los chimpancés y los delfines están cerca de lo más alto de la escala de conciencia,  escala  anclada  en  el  extremo  complejo  (hasta  donde  sabemos actualmente) por los humanos, pero no es en absoluto obvio dónde puede estar anclado el otro extremo -o si hay algún “extremo” más allá del cual las entidades carecen de todo rasgo de interioridad. Además, no es absurdo aplicar categorías dinámicas, evolutivas y orgánicas a todos los niveles de la naturaleza cuando se especula en el contexto de la física relacional de los cuantos y la química auto- ordenadora. ¿Por qué no considerar como primitivo algo como el sentir preconciente y de bajo nivel -la condición por defecto de lo que es ser como una entidad? El paradigma moderno, igualmente especulativo, que asume la oscuridad como la norma para la interioridad de las cosas, no nos ha llevado hacia ningún lado a la hora de resolver el problema de la conciencia. El discurso sobre los zombis y su esterilidad -o aún peor, su peligro, si los clones humanos (en parte como su resultado) son imaginados como siendo oscuros por dentro- debería sugerir a los filósofos de mentalidad abierta que los tiempos están maduros para un nuevo intento de concebir en qué consiste ser lo que se es cuando se es algo. No podemos realmente imaginar cómo es ser algo para lo que “no hay nada como lo cual” ser. ¿Por qué no invertir la condición por defecto? ¿Por qué no intentar pensar sostenidamente sobre el universo como organísmico en su estructura, evolutivo en el tiempo y capaz de desarrollar personas conscientes en el extremo más alto de un continuo natural de causalidad y toma de conciencia explicativamente relevante? Propongo, en otras palabras, que consideremos la ética de la nueva tecnología de clonación según una cosmovisión alternativa, algo a lo que llamo “organicismo personalista”.

En un sólo ensayo de este tipo no puedo posiblemente reunir argumentos convincentes que apoyen esta cosmovisión como un todo. Espero que mi trilogía de 1.200 páginas,  Philosophy and Value, tenga ese efecto. Sin embargo, permítaseme señalar la valiosa luz que el “organicismo personalista” puede arrojar sobre el tema de la clonación humana -y, en el mismo contexto, cómo reflexiona sobre cuestiones referidas al estatus de los animales, como Dolly, en nuestro ambiente natural no- humano. El  organicismo  personalista  surge  de  la  síntesis  formada  mediante  el entrelazamiento  de  (1)  la  prioridad  de  los  valores  personales  con  (2)  la profundamente integradora “filosofía del organismo” promovida por Alfred North Whitehead. El yo personal según Whitehead es una secuencia ajustadamente tejida de lo que este autor llama las ocasiones “dominantes” o “gobernantes” en la sociedad de  duraciones  experienciales,  temporalmente  sucesivas  pero  internamente relacionadas,  que  constituye  la  mente  humana  consciente,  intencionada  y moralmente responsable. Ninguna ocasión es puramente física o puramente mental.

Todas son bipolares. En ambientes simples, el polo mental es prácticamente insignificante, pero en ambientes extremadamente complejos, especialmente dentro del cuerpo humano, la mentalidad es estimulada hasta importantes niveles de actividad. Este yo bipolar está íntimamente ligado, mediante relaciones internas, a flujos de experiencia preconsciente, amplificado y encauzado a través de los órganos del cuerpo. Cuando esta experiencia se vuelve más compleja e intensa, el polo mental se pone cada vez más en juego. Cuando se eleva hacia la conciencia, sus logros de síntesis experiencial adquieren un valor intrínseco cada vez mayor. El  cerebro  humano,  con  sus  billones  de  neuronas  en  múltiples  redes  de interrelación,  es  la  estructura  más  compleja  en  el  conocido  universo.  Esta complejidad viviente es la base que alimenta a eso que constituye la persona humana. Los órganos del cuerpo, como sub-sociedades vivientes, seleccionan, intensifican, transducen y transmiten hacia el cerebro sus modos de experiencia, colectados de adentro y de afuera del cuerpo; de ese modo proporcionan ricas cascadas de información -a menudo en tensión- que demandan una armonización activa innovada por la ocasión consciente gobernante, ella misma ubicada en algún foco nodal de toda esta complejidad durante su momento de auto-actualización subjetiva. La intensidad de los contrastes se torna tan grande que cuando la conciencia se despierta, la actualidad presente puede ser contrastada explícitamente con la posibilidad ausente. Este contraste permite la iniciación de valoraciones novedosas -positivas y negativas- acerca de lo posible. A veces el aliciente (o la amenaza) de las nuevas posibilidades es buscado con una intención subjetiva hacia el futuro tan firme que, orientando el cuerpo y la mente, el yo personal puede tejer gradualmente la realidad concreta del mundo a partir de lo que habían sido sólo sueños abstractos. De este modo, los valores personales dan forma a la historia.

 Esta pequeña reseña está demasiado comprimida para hacer justifica a la explicación de la persona humana por parte de la filosofía del organismo. Sin embargo, no es posible aquí proveer los detalles de una explicación de esa clase. Por el contrario, la cuestión en juego es qué sucede cuando al organicismo personalista se lo interroga sobre la clonación humana y sobre Dolly. En primer lugar, el organicismo personalista, como una de las variedades del organicismo, necesitará reconocer la relevancia profunda del trabajo embriológico de Ian Wilmut para la posible reproducción de seres humanos. El atractivo de esta posibilidad, como he dicho antes, reside en que seguramente será actualizada.

Quizá, las suplicas de las parejas sin hijos, la profunda pena por la irreparable pérdida de un hijo muerto -u otros motivos menos benévolos- construirán la firmeza del propósito subjetivo, pero, con independencia de los impulsos, debemos estar preparados para el arribo entre nosotros de la clonación humana. Como he argumentado, esos clones serán completos seres humanos. Sin embargo, si el organicismo personalista está en lo correcto, esos completos seres humanos, en la medida en que se desarrollen hacia la madurez, serán auto-creadores parciales de sí mismos en tanto que devengan personas. Este es el “milagro” en la condición de persona, que cada persona es hasta cierto grado significativo opaca a la ciencia predictiva, puesto que cada persona está parcialmente autodeterminada en el marco de los idénticos constreñimientos de las capacidades, provistas por el legado genético, y las oportunidades y cambios, provistos por el medio ambiente. El “milagro” de la condición de persona es que ni la naturaleza ni la crianza -así como tampoco ninguna combinación de las dos- están completamente determinadas.

 Gracias a la compleja singularidad del organismo humano, la mentalidad humana es capaz de reconocer y nombrar las regularidades de la experiencia, dar lugar al lenguaje y, entonces, a los poderes para tratar libremente con las posibilidades, incluso con las que están remotamente ausentes del ambiente concreto inmediato. Las posibilidades, una vez actualizadas, conducen hacia nuevas y fractales ramas del árbol de las actualidades y hacia todavía más posibilidades, haciendo que gemelos idénticos sean diferentes personas, y asegurando que los clones idénticos - teniendo incluso menos en común que los gemelos idénticos, quienes comparten el mismo ambiente uterino- sean también personas diferentes de sus ancestros, o de otros “gemelos” clonados, con independencia de cuán parecido sea su ADN. El organicismo personalista pone un punto final a la noción de la que las personas pueden ser reproducidas. Los organismos humanos pueden y serán, seguramente, clonados. Sin embargo, nunca lo serán las personas.

En segundo lugar, el organicismo personalista, como una de las variedades del personalismo, necesita expresar qué de la condición de la persona humana da cuenta de la diferencia moralmente relevante para la vida entre las personas humanas y otros sujetos sintientes como Dolly (incluidos otros animales de granja e, incluso, animales salvajes). Creo que la diferencia no es absoluta; ella yace –como los grados de toma de conciencia- en un continuo; pero, no obstante, esta diferencia es real y vital. La diferencia clave reside en el valor intrínseco poseído por la experiencia que está libre, primariamente por el lenguaje, para elevarse en los dominios del simbolismo y la posibilidad, desatados de lo determinado de la actualidad circundante. Esta libertad es la condición necesaria y la fuente del propósito humano, la capacidad de planificar para un tiempo lejano. La totalidad de la civilización depende y permanece dependiente de esta capacidad. Esta es también la fuente de la toma de conciencia humana de la muerte, que agrega esa especial y valiosa intensidad personal al fallecimiento de los eventos finitos. Esta es la fuente del éxtasis; la fuente de la agonía. Aquí está al menos la clase especial de singularidad personal que distingue a cada persona humana de cada una de las otras, y a todas las personas humanas de otros seres sintientes, cuyas vidas mentales están más ligadas al aquí y ahora.

 Sin embargo, aquí el organicismo personalista -a la vez que ilumina la diferencia moralmente relevante que justifica tratar a las personas humanas con especial dignidad, nacida de la particular capacidad para planear y ser responsable, sentir culpa y crear sinfonías- no niega el valor intrínseco de los centros no-personales de duración y curiosidad, necesidad y satisfacción, como Dolly y otros organismos sintientes. El monismo materialista, en un extremo, no otorga valor intrínseco a ningún lugar de la naturaleza. El dualismo tradicional, en el otro extremo, protege a las personas humanas del estatus de zombis, pero éste no es un buen precio para

Dolly, si sólo se les otorga valor intrínseco a los espíritus humanos. Pero el organicismo personalista puede distinguir grados de valor, honrando como especial a la condición de persona, sin negar los valores intrínsecos genuinos en el mundo de la naturaleza. Desde un punto de vista completamente whiteheadiano, la totalidad de la naturaleza está vibrante de valores, hasta el último pulso de energía cósmica, aunque éste no es un asunto sobre el que trataremos aquí. Al menos la obvia sentiencia tiene valor. Dolly cuenta en sí misma. Ella es el sujeto de una vida. Aunque ella tiene poderes mentales, no es un sujeto personal. Ella no puede elevarse más allá de su redil. No sabe que es mortal; no demanda la dignidad especial de la condición de persona auto-creativa -esto es, no viola su estatus ser la propiedad de otro, en la medida en que su dueño esté atento a sus necesidades. Ella es un clon, pero es también un organismo sensitivo. No puede demandar tener derechos, puesto que tales abstracciones no son parte de su vocabulario, pero los agentes moralmente responsables sí tienen deberes hacia ella, como parte de sus deberes de actuar con apropiado respeto por todos los valores, cualquiera sea el lugar donde ellos se encuentren.

 Cuando los clones humanos aparezcan entre nosotros, a ellos también se les deberán deberes. En primer lugar ellos serán niños y dependerán (como Dolly) de otros. Estos cuidadores estarán obligados a respetar el gran valor de estos clones niños en cuanto que seres humanos y, por lo tanto, personas potenciales. Después de un tiempo, dada la adecuada crianza, ellos realizarán su potencial, aprenderán una lengua y serán capaces de reclamar derechos -derechos humanos completos- para sí mismos. Al hacer esto, estarán confirmando la validez de sus demandas, puesto que al realizar estas demandas estarán funcionando sólo como las personas pueden funcionar. Aunque clonados, no tendrán “personalidades reproducidas”. La “reproducción de personas” será una imposibilidad teórica. En tanto que seres humanos, ellos compartirán el milagro de su propia auto-creación.

 

Bibliografía

CHALMERS, David J. (1996): The Conscious Mind: In Search of a Fundamental

Theory, New York, Oxford University Press.

DENNETT, Daniel C. (1995): “The Unimagined Preposterousness of Zombies,”

Journal of Consciousness Studies, vol. 2, no. 4, pp. 322-326.

FERRÉ, Frederick (1995):  Philosophy of Technology, Athens, Ga., The University of

Georgia Press.

FLANAGAN, Owen y Thomas POLGER (1995): “Zombies and the Function of

Consciousness”, Journal of Consciousness Studies, Vol. 2, No. 4, pp. 322-326.

NAGEL, Thomas (1974): “What is it Like to be a Bat?”, Philosophical Review, Vol. 4,

pp. 435-450.

SEARLE, John R. (1997): “Consciousness & the Philosophers”, a review of Chalmers,

op. cit., in The New York Review of Books, March 6, p. 48.

WILSON, Patricia (1997): “U.S. Ethics Panel Urges Ban on Human Cloning,” Reuters

Limited, 8 de junio.

 

 

RELACIONES DE LA BIOLOGIA CON LA TECNOLOGIA Y LA SOCIEDAD

RELACIONES DE LA BIOLOGIA CON LA TECNOLOGIA Y LA SOCIEDAD

 

De forma general, podemos definir la tecnología como la sistematización de los conocimientos y técnicas aplicables a cualquier actividad, comúnmente para fines prácticos o comerciales, en forma específica, cuando para esos mismos fines se utiliza o altera algunos organismos, célula o molécula biológica entonces se trata de biotecnología.

    De acuerdo con nuestra definición y con base en los estudios arqueológicos y antropológicos, la biotecnología surge desde épocas muy antiguas con las primeras civilizaciones estudiadas (aproximadamente entre 10,000 a 8,000 años) como las culturas neolíticas de Egipto y la del lejano oriente, que para la fabricación de la cerveza y el vino ya utilizaban la levadura y domesticaban plantas y animales en forma selectiva. Algo similar sucedía en esas épocas en algunas partes de América, como lo revelan las semillas de calabaza que se encontraron conservadas en una cueva en México, cuyas características de tamaño y grosor de cáscara revelan la práctica de cultivos selectivos.

 

BIOTECNOLOGIA MODERNA. El cultivo de plantas y la crianza de animales en forma selectiva se siguen practicando, pero el mejoramiento de sus características por reproducción normal es un proceso muy lento y solo sirve para los organismos de reproducción sexual.

    El avance que actualmente ha alcanzado la ciencia en áreas biológicas como la ingeniería genética, la bioquímica, la biología celular, etcétera, ha abierto un número inimaginable de oportunidades en muchas actividades como la investigación biológica en enfermedades, agricultura y ganadería, etcétera.

 

INGENIERÍA GENÉTICA. Realiza la construcción o reconstrucción de moléculas de ADN ( ácidos desoxirribonucleicos ) que originan nuevas combinaciones de genes ( recuerda que un gen es la unidad de la herencia biológica formada por  ADN ), mediante la aplicación de técnicas de la biología molecular invitro; por lo que a la célula o al organismo tratados por medio de la ingeniería genética se el han agregado, suprimido o modificado genes,  gracias en gran parte al descubrimiento del ADN recombinarte que puede contener genes, o partes de estos, de distintos organismos ( el tema se trata mas a delante ). A estos organismos a los que se les ha modificado el ADN o se han obtenido de otras especies, se les da el nombre de transgenicos.

    La biotecnología moderna ha trasformado significativamente los procesos de estudios e investigación, así como muchas de las actividades del hombre de las que solo se mencionaran algunas como ejemplo:

 

  • Agricultura y ganadería. Mejoría de las características de los individuos transgenicos y de sus productos como mejor desarrollo; resistencia al clima, a ciertas enfermedades y hacia algunos virus, a insectos; mayor tamaño, mayor cantidad de individuos, mejor sabor de sus productos, mayor valor nutritivo, etcétera
  • Medicina. Proyectos de genoma humano, obtención de hormonas como la insulina y la del crecimiento humano. También se modifican vacunas, antibióticos, anticongelantes (que eliminan los coágulos que ocasionan trombosis).

La biotecnología también se aplica en terapias genéticas, como  al aplicar la ingeniería genética en algunas “células madre” para reemplazar los genes defectuosos. Se utiliza en las pruebas forenses en la obtención de medicamentos, etcétera.

  • Preservación del ambiente. En el tratamiento de aguas negras, para combatir derrames de petróleo (en ambos casos mediante conversiones microbianas), para destoxificar algunas sustancias peligrosas de los depósitos de basura, utilización de microorganismos (transgenicos) para la recuperación de los suelos, etcétera.

 

 En México existen distintos centros de estudio e industrias, que trabajan e impulsan el desarrollo biotecnológico entre los principales tenemos al:

 

  •  Instituto de biotecnología de la UNAM: que principalmente realiza investigación que se fundamenta en la biología molecular de los microorganismos. Tiene, además, una departamento de bioingeniería y una planta piloto de fermentación.
  • Centro de investigación y Estudios Avanzados, Unidad Irapuato del IPN: realiza trabajos en biología         molecular y bioquímica. Este centro es sumamente importante en biotecnología en vegetales.
  • Departamento de Biotecnología de la UAM, Iztapalapa: sobre todo investigan alimentos y biotecnología ambiental.
  • Centro Internacional para el Mejoramiento del Maíz y Trigo: pertenece al centro de biotecnología internacional; investiga todo lo referente al maíz transgenico resistente a los insectos, así como su mejoramiento por medio de la biología molecular.
  • Departamento de Biotecnología del Centro de Investigación Científico de Yucatán: trabaja en biotecnología vegetal, sobre todo en el cultivo del cempasúchil y la elaboración de tequila, etcétera.  

 

Por otra parte, en México ya existen cientos de empresas que elaboran diferentes productos comerciales obtenidos a base de técnicas biotecnológicas como sucede en la fabricación de distintos productos lácteos, bebidas alcohólicas, etcétera.

La biología, como el resto de la ciencia, no se encuentra aislada de la estructura y organización social, incluso muchas veces es la misma sociedad la que, de acuerdo con sus necesidades, impulsa el desarrollo de la ciencia; los avance que esta va teniendo, que son resultado del esfuerzo de varias generaciones de científicos, que influyen en diferentes grados a las transformaciones sociales.

La avalancha de acontecimientos ocasionados por la aplicación de la biotecnología actual ha despertado grandes polémicas entre los distintos sectores de la sociedad. Un ejemplo concreto es el producto genoma humano, publicado en el año 2001, que costo al gobierno de EE.UU., aproximadamente 3,000 millones de dólares, el cual consiste fundamentalmente en el total conocimiento e identificación de cada uno de los aproximadamente 35,000 genes que determinan las características físicas y fisiológicas de la especie humana, genotípicas y genotípicas.

La relación de la sociedad ante este acontecimiento ha sido muy controvertida, ya que mediante los análisis genéticos puede determinarse si una persona tiene probabilidades de desarrollar en alguna etapa de su vida enfermedades hereditarias.

Aunque la terapia genética humana inicia y todavía presenta muchas dificultades, no cabe duda que  le espera un futuro muy prometedor, por que ofrece grandes esperanza de cura para muchas enfermedades, sobre todo las de origen hereditario, entre otras cosas porque  la información genética permitiera realizar mejores tratamientos de manera más temprana.

 

También puede darse el caso de que a alguna persona le detecten probabilidades de desarrollo ciertas enfermedades hereditarias de alto riesgo como cáncer o Alzheimer. Sin embargo, el presente un alto riesgo de desarrollar alguna de esas enfermedades no significa que necesariamente deba padecerla, pero el solo hecho de contemplar la posibilidad puede llenarla de angustia, tal vez hasta inducirla a tomar alguna decisión negativa extrema.

Puede también suceder que si, por ejemplo, una mujer sabe sus pruebas genéticas que no ha heredado al gen del cáncer mamario, se descuide y no de haga revisiones periódicas, dando con ello oportunidad a que se desarrolle otro tipo de cáncer no hereditario.

Por otra parte, existe el temor de que haya discriminación genética en ciertos sectores de la sociedad, por ejemplo, en el caso de las compañías aseguradoras de empleados para otorgar créditos, seguros de vida o de gastos médicos, que  ya estando empleados los despidan del trabajo al conocer sus características genéticas con ciertos problemas , etcétera.

Por tanto, es evidente que la biotecnología actual este causando una verdadera revolución científica- tecnológica, pero… por un lado, la potencialidad de esta tecnología en beneficio del medio ambiente de la humanidad parece evidente y , por otra parte, han surgido serias inquietudes referentes a las consecuencias que todo pudiera tener, ya que si bien es cierto que este aumento de la capacidad humana puede reflejarse en aplicaciones benéficas muy importantes, también lo es el hecho de que existe el peligro del mal uso y abuso en la creación de organismos trangenicos con fines contrarios a los principios éticos que rigen en la humanidad, lo que podría ser de lamentable consecuencias para todos, por lo que se hace verdaderamente necesario legislar cuidadosamente en nuestro país sobre este asunto.

 

 

 

LA TECNOLOGIA Y EL MEDIO AMBIENTE

LA TECNOLOGIA Y EL MEDIO AMBIENTE

Impacto ambiental de la tecnología

Desde los tiempos prehistóricos las personas han obtenido recursos para cazar, protegerse, etc., de la naturaleza. La naturaleza es capaz de renovar muchos recursos naturales si se consumen a un ritmo adecuado, pero otros recursos no pueden renovarse. Por ejemplo, el petróleo y el carbón tardan en formarse millones de años. Sin embargo, desde la época de la Revolución Industrial, las personas hemos consumido la mayor parte de las reservas mundiales de estos combustibles fósiles.

Durante mucho tiempo las necesidades industriales y tecnológicas se han satisfecho sin prestar atención a los posibles daños causados al medio ambiente. Ahora parece que al menos se conocen estos daños; sólo falta poner los medios a nuestro alcance para evitarlos.

 

Problemas medioambientales provocados por las actividades tecnológicas

Las actividades humanas, desde la obtención de una materia prima, hasta el desecho de los residuos generados tras la obtención de un producto tecnológico, pueden tener consecuencias nefastas para la conservación del medio ambiente. Algunos ejemplos son la desertización, el impacto medioambiental de las obras tecnológicas, la contaminación producida en la obtención y tratamiento de muchas materias primas o de fuentes de energía y los residuos generados en muchas actividades industriales.

Impacto ambiental directo. La ejecución de obras públicas (carreteras, pantanos, etc.) y las explotaciones mineras modifican el ecosistema en el que habitan muchas especies animales y vegetales. Estas obras pueden separar las poblaciones de ambos lados de la carretera, vía férrea, etc.

Desertización. Cada año aumenta la superficie desértica del planeta. Esto da lugar a un empobrecimiento general del suelo, lo que perjudica las actividades agrícolas y ganaderas de la región afectada.

Contaminación. Quizá sea el efecto más apreciable. El incremento en el consumo de energía ha hecho que aumenten considerablemente las proporciones de determinados gases (dióxido de carbono, óxidos de azufre, etc.) en la atmósfera, sobre todo cerca de las áreas  industrializadas. Algunas consecuencias de la contaminación del aire son el calentamiento global del planeta debido al efecto invernadero o la disminución en el grosor de la capa de ozono.

Generación de residuos. Determinadas actividades tecnológicas generan residuos muy

contaminantes que resultan difíciles de eliminar, como algunos materiales plásticos o los residuos nucleares.

Los accidentes de petroleros tienen unas consecuencias nefastas para el entorno marino en el que tienen lugar. Las mareas negras producidas pueden dañar considerablemente a las poblaciones de peces, aves marinas, etc., de la región afectada.

 La tecnología al servicio del medio ambiente

La ciencia y la tecnología pueden servir para ayudar a la conservación del medio ambiente. Algunos ejemplos son la predicción de incendios forestales, el reciclaje de determinados materiales o la utilización de fuentes de energía alternativas.

La predicción y la extinción de incendios forestales se lleva a cabo mediante satélites artificiales. Los modernos métodos de detección permiten advertir la presencia de incendios poco tiempo después de producirse.

  • El reciclaje de determinados productos, como el vidrio, el papel, etc., puede evitar la sobreexplotación de algunas materias primas (madera, etc.).
  • Las fuentes de energía renovables, como la energía solar, la eólica o la geotérmica no se agotan y, en general, contaminan menos que las fuentes no renovables, como el carbón o el petróleo.

Es decir la tecnología en general, en la que esta incluidas tecnologías de la informática, las comunicaciones, y la industria en general, no han escatimado esfuerzo para poder desarrollarse rápidamente, pero en la mayoría de los casos, a costa del deterioro del medio ambiente en los que estamos incluidos nosotros como seres humanos.

Con esto, la naturaleza esta enfermando de muerte y nosotros con ella. Pero si comenzamos a tomar conciencia sobre lo que esta sucediendo o de lo que estamos dejando de hacer para protegerla, en la actualidad nosotros tenemos una gran variedad de herramientas tecnológicas que pueden facilitar los esfuerzos ecológicos.

 Al final solo puedo decir que si ponemos al servicio de la naturaleza toda la tecnología existente, ejm los satélites, podemos realizar una monitorización de nuestra querida madre tierra, y trabajar para protegerla.

La tecnología contribuye a conservar el medio ambiente

 Las tecnologías de la información colaboran en la conservación del medio ambiente. No es un eslogan publicitario, aunque lo parezca. Quisiera mencionar dos de los aspectos por los cuales podemos considerar que se cumple este eslogan:

- Reducción del consumo de papel

- Disminución de los desplazamientos de personas y mercancías

Des de siempre el uso de la informática ha supuesto un elevado consumo de papel. Curiosamente en la década de los 60 cuando se empezaron a informatizar las empresas, se decía que el papel iba prácticamente a desaparecer, la realidad es que no fue así, al contrario la informatización de las empresas incrementó el consumo de papel.

 

¿Qué está cambiando para que se considere que la situación se va a invertir? Muchas de las transacciones comerciales ya no requieren la emisión de papel, se hacen vía EDI  o como en el caso de las facturas emitidas que ya se pueden enviar por medios telemáticos. La admisión de la firma digital en muchos ámbitos está facilitando este proceso. El uso del correo electrónico como medio de transporte de documentos (ofertas, catálogos,…) está siendo fundamental en el ahorro de papel. También hay que tener en cuenta la modernización de la administración, que facilita el uso de medios electrónicos para cumplir con las obligaciones de las empresas. Además y  en todos los casos los documentos electrónicos se pueden archivar en soporte magnético y por lo tanto se vuelven accesibles sin necesidad de imprimirlos.

 

Dos aspectos más influyen positivamente. Los monitores cada vez son más grandes y por lo tanto facilitan ver la información sin necesidad de imprimirla, mientras que con un monitor pequeño en ocasiones se hace difícil trabajar de forma adecuada; y finalmente comentar la tendencia en las organizaciones modernas de manejar información en lugar de manejar datos. Un ejemplo sería la clásica estadística de ventas que tiene páginas y páginas de datos y donde básicamente solo interesan los totales y difícilmente se puedan sacar conclusiones. Lo que seguramente es más provechoso es tener información de situaciones anómalas para poder actuar en consecuencia.

 

Las  tecnologías de la información facilitan el teletrabajo, es decir que las personas sin estar físicamente en la oficina pueden seguir trabajando como si lo estuvieran. Precisamente y centrándonos específicamente en las empresas tecnológicas, el soporte a sus clientes lo suelen dar de forma remota sin tener que desplazarse. Esto indirectamente además beneficia al cliente porque los problemas se resuelven más rápidamente. La videoconferencia en todas sus variantes está siendo un elemento clave en este proceso. Personalmente he comprobado la excelencia de esta tecnología cuando en mi organización hemos tenido que hacer demostraciones de nuestros productos a empresas que se encuentran en Sudamérica.

 

Para concluir comentar que la tecnología está siendo clave en la mejora de la gestión la logística de las empresas. Básicamente lo que se consigue es reducir el número de desplazamientos y la optimización de los recorridos, esto redunda en que se recorran menos kilómetros y por lo tanto se consuma menos carburante y en consecuencia se contamine menos.

 

 

DESAPARICION DE LAS ESPECIES

  Advierten de que tres cuartas partes de todas las especies pueden desaparecer en cuestión de siglos

La Tierra puede enfrentarse a su sexta extinción masiva, según advierten científicos de EE.UU. en la revista Nature, argumentando que, al ritmo actual de destrucción, no pasarán más que unos cuantos siglos para que tres cuartas partes de todas las especies que hoy pueblan nuestro planeta desaparezcan. Desde la primera evidencia fósil de vida, en los últimos 540 millones de años se han producido cinco extinciones masivas en las que fueron aniquiladas más del 75% de las especies de la faz de la Tierra. Pero hasta ahora, las catástrofes o fenómenos naturales fueron la causa. Esta vez la amenaza está directamente relacionada con las actividades humanas, y la lista es larga: la destrucción de los ecosistemas, la sobreexplotación de los recursos, la difusión de los microbios y los virus, las introducciones imprudentes o accidentales de especies en un nuevo ambiente, el calentamiento global…

Para ilustrar este peligro, paleobiólogos en la Universidad de California en Berkeley han revisado el estado actual de la biodiversidad de los mamíferos, la clase de animales más documentada hasta la fecha. Durante los últimos 500 años, por lo menos 80 de 5.570 especies de mamíferos han desaparecido. «El ritmo de extinción actual es extrañamente similar a la de las extinciones en masa del pasado, incluso con una definición bastante restrictiva», dice Anthony Barnosky, autor principal del estudio. Un sombrío panorama, desafortunadamente reforzado por la lista de especies amenazadas en la «lista roja» de la Unión Internacional para la Conservación de la Naturaleza (UICN).

No todo está perdido
Si todas las especies clasificadas como «en peligro crítico», «en peligro» o «vulnerables» desaparecieran a finales del siglo XXI y la extinción continuara al mismo ritmo, más de tres cuartas partes de todas las especies de mamíferos se extinguirían en 334 años y los anfibios en menos de 250, según el estudio. Las cinco grandes crisis se llevaron a cabo en una escala de tiempo geológico -cientos de miles o incluso millones de años- muy larga en comparación con la historia de la humanidad. La extinción más brutal, la más reciente, fue provocada en el Cretácico, hace unos 65 millones de años, cuando, presumiblemente, un cometa o un asteroide golpeó la Tierra en la Península de Yucatán (México).

Según los paleontólogos de California, una toma de conciencia rápida es necesaria para frenar las extinciones. No todo está perdido, ya que, hasta ahora, sólo de un 1% a 2% de todas las especies de los grupos que conocemos se han extinguido. Barnosky afirma que no es demasiado tarde para salvar a los mamíferos en peligro de extinción y a otras especies. Esto requeriría enfrentarse a una nutrida serie de amenazas, desde la fragmentación del habitat a las especies invasoras, las enfermedades y el calentameinto global.

Tecnologia al servicio del medio ambiente

Tecnologia al servicio del medio ambiente

 La Teledetección ofrece grandes posibilidades para la realización de progresos en el conocimiento de la naturaleza, aunque todavía no se ha logrado todo lo que de ella se esperaba debido a que se piensan realizar perfeccionamientos en el nivel de resolución espacial, espectral y temporal de los datos.

Además, es necesario un mayor rigor científico en la interpretación de los resultados obtenidos, tratando de no extraer conclusiones definitivas de los estudios medioambientales realizados mediante técnicas de Teledetección.

Los modelos que se elaboran para interpretar los datos de Teledetección deberán tener como objetivo eliminar los efectos ocasionados por la variabilidad en las condiciones de captación, la distorsión provocada por la atmósfera y la influencia de parámetros tales como la posición del Sol, pendiente, exposición, altitud.

PALABRAS CLAVE: Teledetección, tecnología, Medio Ambiente, satélites de comunicación

1. INTRODUCCIÓN

La preocupación de los ciudadanos por la escasez creciente de los recursos naturales y energéticos, así como las degradaciones que ha realizado el ser humano en su medio ambiente a través de sus actuaciones, muchas veces irracionales y contra natura, han planteado en el mundo entero la imprescindible necesidad de un mejor conocimiento de su hábitat natural dentro del cual se desenvuelve.

La adecuada planificación de las actividades humanas que las circunstancias actuales exigen han de descansar en la realización de un inventario más completo y actualizado de las riquezas naturales nacionales e internacionales, ya sean agrícolas, forestales, hidrológicas, mineras, etc. De igual forma, la vigilancia sobre el medio ambiente debe ser mayor y esta actitud producirá una reducción en los impactos sufridos por el medio hasta la fecha.

Los datos procedentes del servicio conocido como Teledetección son una gran fuente de información y desempeñan un importante papel en la consecución de los dos objetivos anteriormente apuntados.

Centrándonos más específicamente en el caso español, una de las acciones más importantes debe enfocarse a la calidad de las aguas y la detección de incendios, dos problemas de todos.

El agua es una de las grandes riquezas de la Península Ibérica, indispensable para la vida y la ontogenia del ser humano. Si su calidad se deteriora, todos sufrimos las consecuencias: hombres, animales y plantas.

Preservar y mejorar la calidad del agua de nuestros ríos es cuidar el medio ambiente para todos y para todo. Los ríos españoles tienen una longitud total de 172.000 kilómetros, más de cuatro veces la vuelta al mundo. Vigilar su situación, impedir cualquier vertido contaminante, requiere un sistema moderno de análisis, que utilice las tecnologías de comunicación más avanzadas. Es preocupante que hoy un tercio de la longitud de nuestros ríos necesite una atención y saneamiento inmediato, según la información suministrada por el Centro de Publicaciones del Ministerio de Medio Ambiente.

Para que todos dispongamos de agua en la cantidad precisa, en el momento y lugar en que sea necesaria, hace falta una actuación planificada, global, de regulación de recursos. Pero junto a ella es indispensable también conservar la calidad del agua. Por una parte depurando el agua utilizada, y a la vez vigilando su calidad, impidiendo su deterioro. Una tarea que hay que realizar de forma continua las 24 horas de cada día.

Otro asunto en el que existe una especial preocupación es el de los vertidos urbanos. En poco más de diez años, las grandes ciudades españolas en su inmensa mayoría, han abordado este problema de forma conjunta con el de la depuración de las aguas residuales. Hacia mediados de los años 80, el 60% de nuestra población estaba ya conectada a sistemas de depuración. La Directiva Europea 91/271/CEE planteaba importantes retos: antes del año 2000 debían depurar sus aguas todas las poblaciones con más de 10.000 habitantes. Antes del año 2005 debían hacerlo las poblaciones con más de 2.000 habitantes.

Las empresas públicas y privadas españolas no podrán competir ni en Europa ni en el mercado interior si no asumen los costes de depuración. Por todo ello, el Plan de Regularización de Autorizaciones de Vertidos y Gestión del Canon, previsto en el Plan Hidrológico Nacional, necesita fundamentarse en sistemas altamente fiables de control y vigilancia.

El uso de fertilizantes y plaguicidas en la agricultura provoca graves alteraciones en la calidad del agua. En consonancia con lo acordado en la Directiva Europea 91/676/CEE sobre la contaminación producida por los nitratos, el Ministerio de Medio Ambiente y el de Agricultura están desarrollando en nuestro país la necesaria normativa.

Gracias a los trabajos realizados a través del sistema SAICA (Sistema Automático de Información de Calidad de las Aguas), que se hace posible vía HISPASAT desde 1994, la "reutilización" de las aguas residuales, se ha convertido en una actuación básica en la calidad de las aguas. Existen ya importantes programas pilotos en las Islas Canarias y en Madrid. Esta nueva aplicación de las aguas permite liberar recursos cada vez mayores para abastecimientos y otros usos, asegurando las necesidades en agricultura, en el riego de parques y jardines y en la recarga de acuíferos.

La estrecha relación que la Universidad Complutense de Madrid tiene con la sociedad HISPASAT S.A. ha permitido que dispongamos de una información muy detallada de lo que constituye el núcleo central de este trabajo sobre medio ambiente: El Sistema Automático de Información de Calidad de las Aguas (SAICA).

Adelantamos aquí algunos de los objetivos más importantes de este programa nacional:

1.Detectar y controlar la contaminación de los ríos y acuíferos, con carácter preventivo.

2.Cumplir y hacer cumplir las Directivas de la Unión Europea sobre la calidad de las aguas.

3.Control exhaustivo de los niveles de calidad por tramos de río en función de los requisitos establecidos para cada uso (abastecimiento, regadío, vida piscícola, etc.) y llegar a los objetivos finales de calidad de los Planes Hidrológicos de cuenca.

4. Protección de vertidos indeseados las 24 horas del día respecto a determinados empleos específicos, sobre todo los abastecimientos a núcleos de población.
5. Aplicación de forma eficiente de la normativa española, en particular de la Ley de Aguas, sancionando de forma ágil a los responsables empresariales y particulares de vertidos contaminantes para la salud.

6. Nuevas tecnologías y procedimientos modernos de gestión, que permitan, con poco personal de vigilancia, realizar una amplia cobertura de control de nuestra red hidrográfica de forma continua.

El SAICA constituye, dentro de su género, uno de los sistemas más avanzados y pioneros de Europa, en concepción y tecnología. Es a la vez un sistema extremadamente económico, permitiendo la cobertura de todas nuestras Cuencas Hidrográficas con un presupuesto de 10.000 millones de pesetas, para el que cuenta con apoyo de fondos de la Unión Europea. Ha recibido el plácet de la Comisión Europea.

Este programa es un sistema de ámbito nacional, que recibe y procesa durante las 24 horas del día la información procedente de las Redes Integrales de Control de Calidad de las Cuencas Hidrográficas. Permite el control continuo y sistemático de la cantidad y calidad de las aguas de los ríos, según el uso a que estén destinados: abastecimiento, regadío, baños, etc.

El Sistema SAICA permite tener una información real e inmediata de lo que sucede en nuestros ríos y acuíferos. Por ello se pueden desgranar, entre otras, las siguientes funciones:

1ª. Alerta automática de protección, principalmente para abastecimientos.
2ª. Diagnósticos continuos de calidad por tramos de río, según los usos de cada segmento de terreno.
3ª. Datos estadísticos, informes temáticos, realizando el seguimiento de los diferentes tipos y niveles de contaminación.
4ª. Estrategias de control, vigilancia y sanción de vertidos contaminantes.
5ª. Simplificación de procedimientos, informatización, mayor agilidad en las autorizaciones de vertido y expedientes sancionadores.

6ª. Informes a la Unión Europea para el cumplimiento de las diferentes Directivas sobre la Calidad de las Aguas.
A modo de apunte general en esta introducción, que posteriormente desarrollaremos con más amplitud y detalle, precisar que en cada Cuenca Hidrográfica, el SAICA cuenta con una red de información de Calidad de las Aguas. En total, el sistema se compone de:

- 1.000 Estaciones de Muestreo Periódico (EMP).
- 200 Estaciones de Muestreo Ocasional (EMO).
- 115 Estaciones Automáticas de Alerta (EAA).
- 9 Centros Periféricos de Proceso (CPP), uno en cada Cuenca Hidrográfica.
- Una Unidad Central en el Ministerio de Obras Públicas y Transportes.
- El enlace entre todo el sistema se realiza usando el sistema HISPASAT.
Las "estaciones automáticas de alerta" realizan mediciones de forma continua de los diferentes parámetros elegidos sobre la calidad de las aguas. Realizan la alerta cuando detectan que determinados parámetros de calidad superan los valores exigidos por la normativa vigente.

Disparada una alarma, el sistema pone en marcha automáticamente mecanismos de interrupción de tomas de suministro de agua a poblaciones, a la vez que lleva a cabo los análisis que permiten identificar el vertido causante de la alarma y su posible origen, facilitando así las medidas sancionadoras.

Las Estaciones de Control, instaladas en los puntos más conflictivos de los ríos, transmiten a los Centros de Proceso de cada cuenca y a la Unidad Central del Ministerio de Medio Ambiente la información sobre la calidad de las aguas a través del satélite español HISPASAT, mediante el sistema VSAT. En los Centros de Control se investigan las causas, se analizan las posibles consecuencias de cada contaminación y se advierte a la inspección. Entran así en funcionamiento los mecanismos de policía de agua previstos en nuestras leyes.

En estos momentos, el funcionamiento normal del sistema SAICA pasa por ser la mejor opción para mantener y mejorar la calidad de las aguas de nuestros ríos y acuíferos. Este sistema tiene en cuenta las responsabilidades en materia de saneamiento y depuración de las Administraciones Locales y Autonómicas. Hace posible la coordinación con la Administración Central del Estado que es a quien corresponde el control, vigilancia y conservación del dominio público hidráulico, garantizando así la calidad de las aguas continentales.

Este sistema contribuye de forma importante a la realización del Plan Hidrológico Nacional, convirtiendo a España en uno de los países europeos con más y mejores recursos hidrológicos, a pesar de los pasados años de sequía pertinaz. En suma, una buena herencia para las próximas generaciones si saben aprovecharlo con racionalidad y coherencia.

Aparte del Sistema SAICA, ampliaremos información con apartados sobre el avance más reciente de la "Teledetección", una tecnología abanderada en el estudio de los impactos medioambientales. Nos centraremos en algunos de los antecedentes, características de los datos estadísticos de Teledetección, satélites de recursos naturales anteriores a HISPASAT, para luego exponer con más profundidad nuestra explicación sobre el SAICA.

2. LA FUNCIÓN DE LA TELEDETECCIÓN EN EL ESTUDIO DEL MEDIO AMBIENTE.

La Teledetección de recursos naturales se basa en un sistema de adquisición de datos a distancia sobre la biosfera, que está basado en las propiedades de la radiación electromagnética y en su interacción con los materiales de la superficie terrestre.

Todos los elementos de la Naturaleza tienen una respuesta espectral propia que se denomina "signatura espectral". La Teledetección estudia las variaciones espectrales, espaciales y temporales de las ondas electromagnéticas y pone de manifiesto las correlaciones existentes entre éstas y las características de los diferentes materiales terrestres. Su objetivo esencial se centra en la identificación de los materiales de la superficie terrestre y los fenómenos que en ella se operan a través de su signatura espectral.

La información se recoge desde plataformas de observación que pueden ser aéreas o espaciales, pues los datos adquiridos a partir de sistemas situados en la Tierra constituyen un estadio preparatorio de la Teledetección propiamente dicha y se consideran como campañas de verdad terreno.

Las plataformas de observación portan los captores, es decir, aquellos instrumentos que son susceptibles de recibir y medir la intensidad de la radiación que procede del suelo en una cierta gama de longitudes de onda y transformarla en una señal que permita localizar, registrar y digitalizar la información en forma de fotografías o imágenes numéricas grabadas en cinta magnética compatibles con un ordenador (CCT).

Los captores pueden ser cámaras fotográficas, radiómetros de barrido multiespectral (MSS), rádares y láseres. Estos aparatos generan imágenes analizando la radiación emitida o reflejada por las formas y objetos de la superficie terrestre en las longitudes de onda en las cuales son sensibles (ultravioleta, visible, infrarrojo próximo, infrarrojo técnico, hiperfrecuencias) con el fin de reconocer la variada gama de formas y objetos.

2.1. SATÉLITES DE RECURSOS NATURALES LANDSAT

Con objeto de hacer un breve recorrido histórico sobre los satélites con servicios destinados al cuidado del Medio Ambiente, empezamos este apartado por el sistema que se encuentra como uno de los pioneros: el LANDSAT, primer satélite de recursos naturales lanzado por la NASA en julio del ya lejano 1972. Con posterioridad a este lanzamiento, fueron puestos en órbita los satélites LANDSAT 2 y LANDSAT 3 en enero de 1975 y marzo de 1978 respectivamente, con la finalidad de asegurar la recogida de datos para ulteriores estudios. Los satélites LANDSAT están situados en una órbita casi polar y sincrónica con el Sol, a 920 kilómetros de altura sobre la superficie de la Tierra.

Tardan en efectuar una órbita completa 103 minutos, barren la superficie terrestre cada 18 días y obtienen información simultánea de zonas de la Tierra de 185 x 185 Km. (aproximadamente 34.000 Km.).

Los satélites LANDSAT están provistos de sensores remotos de varios tipos. El primero es el RBU (Return Beam Vidicon) que consiste esencialmente en un sistema de cámaras de televisión. El segundo sensor es un equipo de barrido multiespectral o MSS (Multiespectral Scanner) que registra la energía reflejada por la superficie terrestre en las regiones verde, roja e infrarroja del espectro electromagnético. La unidad elemental de información tiene una resolución espacial de 79 metros.

Las señales analógicas registradas por los sensores se convierten a un formato digital y se transmiten a la Tierra. Los datos del LANDSAT se comercializan bien en forma de productos fotográficos, bien en forma de imágenes digitales grabadas en cintas magnéticas compatibles con ordenador.

2.2. CARACTERÍSTICAS DE LOS DATOS DE TELEDETECCIÓN

El conjunto de los datos adquiridos mediante procedimientos de Teledetección de aviones o naves espaciales comprenden siempre tres tipos de información (GOILLOT, 1976):
1ª. Una información espacial que representa la organización en el espacio físico de los elementos que constituyen la imagen.
2ª. Una información espectral que caracteriza y puede conducir al conocimiento de la naturaleza de la superficie terrestre.
3ª. Una información temporal que permite la detección de los cambios operados en la superficie de la Tierra con el transcurso del tiempo.
Además, los sensores remotos, especialmente los radiómetros de barrido multiespectral de la serie de satélites LANDSAT, realizan una percepción muy particular del Medio Ambiente y del paisaje que se caracteriza por la existencia de una homogeneización de la imagen que es función del nivel de resolución de los sensores o captores.

La información elemental o pixel (contracción de "picture element") tenía, a principios de la década de los 80, en el satélite LANDSAT unas dimensiones sobre el terreno de 56 m. x 79 m.

Estas unidades informativas se disponen en la superficie terrestre a modo de malla geométrica con una cierta inclinación respecto a meridianos y paralelos pareciéndose en cierto modo a la malla UTM o LAMBERT. La malla del LANDSAT no tiene ninguna relación con los límites geográficos de los objetos situados en la superficie terrestre.

En estas condiciones, lo más normal es que un pixel tenga una naturaleza heterogénea, pudiendo englobar en el caso de una zona urbana una manzana de casas, un jardín y una autopista.

Las diferencias locales se diluirán en la respuesta promedio y este efecto crea una ilusión sobre la existencia de zonas de transición y zonas de contacto gradual entre distintas unidades de paisaje. Este efecto no se manifiesta cuando existe un contraste brusco entre dos usos del suelo contiguos, por ejemplo, un movimiento de tierras reciente en el interior de un bosque cerrado.

La existencia de un contraste brusco puede permitir observar en una imagen objetos cuyas dimensiones sean inferiores a las de un pixel.

En definitiva, los datos adquiridos a través de Teledetección se caracterizan por las siguientes propiedades (TRICART, 1979):

1ª. Posibilidad de obtener información sobre aspectos del medio natural que escapan totalmente a nuestros sentidos (ondas de radar, infrarrojo de LANDSAT, etc.). La experiencia "natural" del hombre es, por lo tanto, nula en estos dominios espectrales y por esta razón se realizan "visualizaciones" que tienen una función y utilidad análogas a las fotografías aéreas y que se denominan imágenes para evitar la confusión.

2ª. Estas informaciones que son registradas por los sensores y que miden la cantidad de energía reflejada o emitida por los objetos naturales que componen el paisaje son de tipo numérico y se prestan al tratamiento matemático. Por otro lado, su extremada abundancia obliga al empleo de grandes ordenadores y métodos de tratamiento de datos muy sofisticados y potentes.

3ª. Los datos extraídos de los servicios de Teledetección nos revelan ciertos aspectos de los ecosistemas difíciles de estudiar, prácticamente desconocidos, contribuyendo de una forma eficaz al conocimiento de los mismos y de su funcionamiento (detección de enfermedades en las plantas, efectos del stress debido a la falta de agua, transpiración, régimen térmico, etc.).

4ª. Por último, la Teledetección permite seguir la evolución de las grandes extensiones forestales que persisten en la superficie del globo, tener una visión de conjunto sobre los efectos producidos por las grandes catástrofes (por ejemplo, las sequías aterradoras de las regiones saharianas de África) y reconocer ciertos fenómenos de polución a gran escala en el cine y en el mar.

2.3. RESOLUCIÓN ESPACIAL DE LOS SATÉLITES DE PROTECCIÓN MEDIOAMBIENTAL.

En la década de los años 70, la mayoría de las imágenes de satélites empleados en el estudio de los fenómenos terrestres pertenecían a la serie LANDSAT.
Muchos científicos han realizado aplicaciones empleando dichas imágenes, sobre todo en los Estados Unidos, pero también muchos otros se dieron un compás de espera debido a la baja resolución espacial de dichas imágenes con respecto a la fotografía aérea convencional. La mayoría de los satélites de recursos naturales que se han diseñado y construido para ser lanzados al espacio en la década de los 80, han proporcionado imágenes con mejoras sustanciales en la resolución espacial con respecto a los satélites pioneros.

La necesidad de disponer de imágenes con mejor definición espacial quedó parcialmente satisfecha con el lanzamiento en 1982 del LANDSAT D y por el satélite SPOT (Sistema Probatorio de Observación de la Tierra) que fue puesto en órbita en 1984. Además, el lanzador COLUMBIA, dispuso de cámaras métricas con resoluciones inferiores a los 10 metros.

Estos avances en la tecnología de los sensores remotos permitieron predecir a Allan (1977) que hacia mediados de los años 80 la mapificación de las grandes áreas a partir de las imágenes satelitales estaría muy extendida.

En un principio, las imágenes se construían por medio del movimiento de un espejo situado transversalmente a la órbita del satélite. La imagen final estaba constituida por una matriz de elementos de imágenes o píxeles. Este método se empleó en el sistema multiespectral scanner MSS de los satélites LANDSAT 1,2 y 3 y se empleó en el mapeado temático del LANDSAT D.

En los radiómetros de barrido -"pushbroom radiometers"- no es necesario el espejo oscilante antes mencionado, pues un "chip" monolítico de silicona posee cientos o miles de detectores en línea con amplificadores y circuitos electrónicos multiplexados (THOMPSON, 1979).

Estos detectores hacen un muestreo electrónicamente, de tal forma que un vector que contiene toda una línea de la imagen, se registra al mismo tiempo que el satélite avanza a lo largo de la órbita de un elemento de resolución.

Las carreteras y ríos de anchura inferior a 79 metros son frecuentemente detectables en las imágenes LANDSAT. La alineación de los objetos es también muy importante y la eficacia en la detección depende mucho de que el eje central del objeto se encuentre en la mitad de una línea de barrido o en la frontera entre dos líneas de barrido. En el segundo caso, la detección es más difícil.

Mientras hay objetos inferiores a 79 metros que se pueden detectar, muchos objetos de tamaño igual o mayor no son detectables. En las imágenes LANDSAT se ha mostrado que los objetos de bajo contraste sólo son detectables si tienen una longitud superior a 250 metros.

Una consecuencia obvia de todo esto es que la habilidad del sensor para detectar objetos depende del contraste con los alrededores y está en relación con la sensibilidad que posea el captor para detectar pequeñas diferencias. El tamaño mínimo de los objetos que son detectables en una imagen también está en función de las condiciones atmosféricas locales (GONZÁLEZ ALONSO & CUEVAS GÓZALO, 1982).

Finalmente, para que la utilidad de los satélites sea mejor entendida y los futuros sistemas se diseñen de una manera más eficiente, Townshend (1981) indicaba que sería necesario investigar dos áreas principales:
1ª. Elaboración de medidas de resolución que reflejen mejor la cantidad y calidad de la información que puede extraerse de los datos.
2ª. Desarrollo de índices que midan las propiedades espaciales de los atributos (vegetación, geología, etc.) en el terreno.

3. MÉTODOS DE TRATAMIENTO PARA LA EXTRACCIÓN DE INFORMACIÓN DE LOS DATOS DE TELEDETECCIÓN.

El lanzamiento del satélite LANDSAT 1 en 1972 comenzó una nueva era para los estudios de Medio Ambiente, proporcionando datos de alta calidad que se pueden obtener a intervalos frecuentes sobre cualquier zona de la superficie terrestre.

Sin embargo, la capacidad de obtener información desde los satélites es mayor que la capacidad de la que hasta hace poco tiempo se tenía para analizar e interpretar los datos de una forma totalmente eficaz.

En los albores iniciales del programa LANDSAT, se estableció una especie de diálogo de sordos entre los promotores de la Teledetección (que a menudo tenían una formación en ingeniería técnica o superior, en física o en informática) y los usuarios potenciales (geólogos, geógrafos, agrónomos, forestales, hidrólogos, etc.) debido a que los primeros interpretaban las imágenes de forma demasiado ingenua, según la opinión de los usuarios, que a su vez hacían gala de gran escepticismo, alimentado por una cierta inercia de cara a su necesario reciclaje.

De una forma progresiva estas barreras tienden a desaparecer y así, cada vez más, gentes de formación académica muy diferente tienden a las colaboraciones mutuas y al intercambio de informaciones.

Además, en Teledetección existe muy a menudo una interacción grande entre las técnicas y las aplicaciones, debido a que estas últimas permiten frecuentemente replantearse los métodos empleados.

Las técnicas de tratamiento de datos en Teledetección tienen como objetivo esencial ayudar al investigador en la interpretación de los datos procedentes de sensores remotos.

3.1. LA INTERACCIÓN HOMBRE-MÁQUINA

Desde hace más de una década, los esfuerzos realizados para extraer información a partir de sensores remotos multiespectrales van dando progresivamente resultados.
Dichos esfuerzos se han centrado esencialmente en la aplicación de las técnicas de reconocimiento automático de patrones a las medidas de multiespectro que caracterizan a los elementos de resolución.

Generalmente, las escenas son clasificadas pixel a pixel basándose en los vectores de medidas espectrales que están asociados a los elementos que componen la imagen, empleando para este proceso ordenadores y programas desarrollados al efecto.

Los sistemas completamente automáticos de tratamiento de imágenes digitales no han proporcionado resultados del todo satisfactorios en las aplicaciones relativas a la mapificación de usos del suelo.

La perfección del ojo humano es muy grande y el papel que ha de desarrollar el analista como fotointérprete es esencial tanto en la interpretación de las imágenes fotográficas como en el proceso automático de las imágenes digitales. Por ello, cada vez más, los sistemas de tratamiento se diseñan de tal forma que intervengan más activamente en el proceso especialistas de las ciencias medioambientales.

El papel del especialista consiste en incorporar al sistema su conocimiento del medio ambiente, particularmente las peculiaridades regionales de las imágenes en cuestión, localizando en el espacio los distintos tipos de cubierta u otros fenómenos que están acordes con las relaciones ecológicas y/o antropógenas que se manifiestan en las imágenes.

Los progresos que preferentemente se han llevado a cabo en la cuestión del tratamiento numérico, consisten en la puesta a punto de dispositivos de visualización que permiten un diálogo permanente del investigador con el ordenador, pudiendo escoger aquel los tratamientos numéricos adecuados y una vez aplicados, controlar los resultados, apreciando la concordancia existente entre dichos resultados y sus conocimientos (TRICART, 1979).

3.2. CLASIFICACIÓN AUTOMÁTICA DE LOS DATOS DE TELEDETECCIÓN

La clasificación automática de los datos digitales de Teledetección es una gran ayuda para el investigador en la interpretación de imágenes multiespectrales.
El objetivo de toda clasificación es el reconocimiento de clases o grupos cuyos miembros tengan ciertas características en común. El resultado ideal sería la obtención de clases mutuamente excluyentes y exhaustivas.

En Teledetección, las clases obtenidas cuando se realiza una clasificación deben ser espectralmente diferentes unas de otras y además deben contener un valor informativo de interés para la investigación de que se trate.

Tradicionalmente se han seguido dos enfoques en la realización de las clasificaciones: uno de tipo supervisado y otro de tipo no supervisado.

El enfoque de tipo supervisado supone un entrenamiento de clasificador a través de un conocimiento a priori de la verdad terreno que se ha seleccionado como representativa de las clases informacionales que se quieran reconocer en la imagen.
El enfoque no supervisado no precisa el conocimiento previo de una verdad terreno y tiene la pretensión de segmentar la imagen en una serie de clases por procedimientos exclusivamente numéricos, basándose sólo en la estructura que posean los datos espectrales.

En las clasificaciones supervisadas normalmente se parte de la hipótesis de que la distribución de los datos espectrales es normal multivariante, lo que permite la utilización de procedimientos paramétricos, tales como los clasificadores bayesianos.
Ahora bien, suele ocurrir que los datos espectrales no se ajustan bien a la distribución multinormal, pudiendo ser arriesgado realizar la hipótesis anterior.

Maynard y Strahler (1981) propusieron el clasificador LOGIT, un clasificador no paramétrico. En una simulación realizada con ordenador generando datos no normales, el clasificador Logit fue significativamente superior al bayesiano, mejorando la exactitud en un 34%. Cuando se utilizó dicho procedimiento en una zona agrícola, y con datos LANDSAT reales, el incremento de precisión experimentado fue del 39%.

Los mayores problemas que subyacen a las clasificaciones de tipo supervisado son:

1º. Validez de las clases espectrales, construidas en la fase de entrenamiento de los clasificadores, para representar a las clases informacionales que se quieren reconocer.
2º. Elevado coste (desde el punto de vista del tiempo de cálculo) que puede suponer la realización de tales clasificadores. Una forma eficaz de reducir el coste de las clasificaciones consiste en el empleo de las tablas de clasificación. Estas tablas están basadas en la alta correlación que presentan las cuatro bandas del radiómetro del LANDSAT, lo que reduce el número de combinaciones espectrales distintas que se pueden presentar en la imagen. De esta forma, normalmente en una imagen LANDSAT, sólo se presentan varios miles de combinaciones de las aproximadamente 16 millones de combinaciones espectrales posibles.
La fiabilidad de las clasificaciones realizadas mediante este procedimiento suele tener el mismo orden de magnitud que la obtenida mediante los métodos convencionales pero el tiempo de cálculo es sensiblemente inferior.

CONCLUSIONES

A través de está revisión doctrinal se han intentado delinear algunos de los hitos más relevantes que los seres humanos, en su intrínseca relación con la evolución de la tecnología satelital, han aplicado al cuidado y conservación de lo más preciado que tenemos en este planeta, tal como es el medio ambiente. Es, por ello, que en la mayor parte de los Estados de la Unión Europea y por,supuesto, en varios del continente americano, se han detectado tres grandes focos de aplicación de las técnicas y la metodología de la Teledetección, nuestro objeto de estudio, a saber:

1ª. Calidad de las aguas.
2ª. Detección de incendios.
3ª. Control de los vertidos urbanos.
Dependiendo de los países, los gobiernos de turno aplican más recursos a uno u otro servicio, aunque en el caso concreto de las naciones que forman la Unión Europea se intentan delimitar unas pautas de actuación comunes a través de los dos instrumentos jurídicos más importantes vigentes y directamente relacionados con el Derecho Comunitario secundario, como son los Reglamentos, de aplicación directa en los países miembros, y las Directivas, que necesitan de una adaptación posterior a las legislaciones nacionales respectivas para su aplicación a los ciudadanos..

REFERENCIAS BIBLIOGRÁFICAS

ALLAN, J.A. (1977) Land use charges in land use in the Urla area of Aegean Turkey,In:Monitoring Environmental Charge by Remote Sensing, Ed. van Genderen and W.G. Collins,Remote Sensing Society, Londres.
GOILLOT, C.H. (1976) Rapport de Synthere, C.R.Table ronde C.N.R.S."Ecosystems bocagers",Rennes.
GONZÁLEZ ALONSO, F. Y CUEVAS GOZALO, J.M. (1982) Los satélites de recursos naturales y sus aplicaciones en el campo forestal, Ed. Instituto Nacional de Investigaciones Agrarias, Madrid.
MAYNARD, P.T. & STRAHLER,A.H.(1981) “The logit classifier a general maximun likelihood applications”, proceedings of the Fifteenth International Symposium on Remote Sensing of Environment,An Arbor,Michigan.
MEGIER, J. (1977) “Multi-temporal digital analysis of LANDSAT data for inventory of poplar planted groves in North Italy”, proceedings of the International Symposium on image Processing, Interactions with photogrammetry and Remote Sensing, Graz.
THOMPSON, L.L.(1979) Remote Sensing using solid state array technology,Phogrammetric Engineering and Remote Sensing 45
TOWNSHEND, J.R. (1981) The spatial resolving power of earth resources satellites.Progress in Physical Geography 5(1)
TRICART, J.L. (1979) ”Paisaje y ecología” en Revue de Géomorphologie Dynamique, XXVIII,3.

 

ETICA Y TECNOLOGIA

REVOLUCION TECNOLOGICA

En las últimas dos décadas hemos sido testigos de enormes cambios en el área de la tecnología, información  y comunicaciones, pareciéndonos que todo lo que hoy conocemos y utilizamos, de una manera normal y cotidiana, era producto exclusivo de las películas de ciencia ficción. De esta manera llegó el tiempo en que la realidad nuevamente superó a la ficción.
     
Teléfonos celulares, computadores personales, Internet, banda ancha, televisión por cable, video conferencias, mundo globalizado, páginas Web, Chat, Web 2.0, WiFi, WiTv. etc., son términos y productos a los cuales nos hemos ido habituando con mayor o menor resistencia, constituyéndose, incluso, en una nueva forma de servicio básico que estamos dispuestos a pagar.
     
        Estos nuevos medios que traen consigo una nueva forma de relacionarse con el mundo llegan para quedarse y sin duda para seguir evolucionando. Así las cosas, no podemos correr el riesgo de convertirnos en meros espectadores  de estos procesos ya que este transporte de los cambios nos puede dejar abajo y consiguientemente aislados de un mundo que cambia y nos exige más y nuevos conocimientos, en otras palabras nos, obliga a ser flexibles.
      
         Toda revolución trae grandes transformaciones, quedando atrás las viejas concepciones, ideas y paradigmas. La revolución tecnológica plantea un desafío a las empresas, instituciones y sociedad en general ya que en su uso hay enormes ventajas competitivas. Se abre un abanico de posibilidades, una nueva forma de hacer negocios, más y mejor información para tomar buenas decisiones, otras formas de trabajo o relación laboral (teletrabajo),  ciudadanos mejor informados y conectados con el mundo, estudiantes que pueden interactuar desde su hogar con los profesores, una educación que incorpora nuevas metodologías interactivas que logran mejores resultados de aprendizaje, etc. Todo lo anterior nos hace suponer que los avances tecnológicos  traen consigo sólo  beneficios, lo que hasta cierto punto parece correcto. Sin embargo, y en este punto, cabe incorporar un tema ético y moral que no puede quedar excluido.

          La tecnología se ha desarrollado con propósitos que hasta ahora aparecen como buenos o beneficiosos para la humanidad, es discutible, sin embargo, que su uso siempre tenga  un propósito noble, pues también puede ser usada  con fines egoístas  que muchas veces vulneran los derechos de otros. En definitiva, nos movemos en los umbrales de lo permitido y lo moralmente aceptable, pero no es que  falle en este punto la tecnología sino que quien la usa y abusa de sus posibilidades.
         
          A raíz de lo anterior se dictaron leyes que permiten regular sobre aspectos como la protección de la vida privada, de los delitos informáticos, entre otros, pero no es menos cierto que el efecto de una ley no sólo debe estar basada en el castigo que ella considera si es transgredida, sino que en la conciencia de que aquello que se expresa ahí corresponde a una forma correcta de conducirse.

         ¿Pero de qué forma logramos esto cuando nos parece natural copiar, adquirir y reproducir creaciones que tienen autor y cuya fuente de ingreso esta siendo gravemente afectada cuando no se realiza su adquisición por la vía legítima. O en otros casos donde la vida privada de las personas queda expuesta al mundo para obtener más rating, o en las redes de pedofilia y pornografía infantil donde se vulneran los derechos más elementales de quienes deben estar más protegidos, o de quienes valiéndose de sus conocimientos en estos medios pueden crear páginas donde la violencia se legitima y se pierde el respeto por la dignidad humana.?
          
            Es verdad que los cambios, el progreso y la modernización en sus distintas formas son elementales en el desarrollo de los pueblos, pero no debemos olvidar que ellos traen consigo otros flagelos que no sólo debemos tratar de combatir con innumerables leyes, sino que a través de la sólida formación de las nuevas generaciones, basada en principios y valores que no sean relativos. ¿Por qué las nuevas generaciones?, porque son ellas las que están naciendo en este mundo tecnológico (son los llamados Nativos Digitales) , informático y comunicacional que muchas veces es cruel, agresivo e indolente con el otro.

  Las revoluciones, como se dijo anteriormente, traen consigo cambios pero hay ciertas cosas que no pueden cambiar como son los principios éticos y morales en los que se fundamenta y sustenta toda sociedad.