Economía, Sociedad y Cultura. Siglo XXI editores 1999 Madrid




descargar 163.72 Kb.
títuloEconomía, Sociedad y Cultura. Siglo XXI editores 1999 Madrid
página2/5
fecha de publicación27.10.2015
tamaño163.72 Kb.
tipoDocumentos
med.se-todo.com > Historia > Documentos
1   2   3   4   5

LA SECUENCIA HISTÓRICA DE LA REVOLUCIÓN DE LA TECNOLOGÍA

DE LA INFORMACIÓN
La breve aunque intensa historia de la Revolución de la tecnología de la información ha sido contada tantas veces en los años reciente no resulta necesario proporcionar al lector otro relato completo ella24. Además, dada la aceleración de su ritmo, cualquier relato de tipo se quedaría obsoleto de inmediato, ya que entre esta escritura-lectura (digamos dieciocho meses) los microchips habrán duplicad rendimientos para un precio determinado, según la «ley de Moore» generalmente aceptada25. Sin embargo, considero útil desde el punto vista analítico recordar los principales ejes de la transformación tecnológica en la generación/procesamiento/transmisión de la información situarla en la secuencia que condujo a la formación de un nuevo paradigma socio-técnico26. Este breve resumen me permitirá, más tarde, soslayar referencias a los rasgos tecnológicos cuando se exponga su interacción específica con la economía, cultura y sociedad a través del itinerario intelectual de este libro, excepto cuando se requieran nuevos elementos de información.
La microingeniería de los macrocambios: electrónica e información
Aunque pueden encontrarse precedentes científicos e industriales de las tecnologías de la información basadas en la electrónica unas décadas antes de 194042 (no siendo la menos importante la invención del teléfono por Bell en 187ó, de la radio por Marconi en 1898 y del tubo de vacío por De Forest en 190ó), fue durante la Segunda Guerra Mundial y el periodo subsiguiente cuando tuvieron lugar los principales avances tecnológicos en la electrónica: el primer ordenador programable; y el transistor, fuente de la microelectrónica, el verdadero núcleo de la Revolución de la tecnología de la información en el siglo XX27. No obstante, hasta la década de los setenta no se difundieron ampliamente las tecnologías de la información, acelerando su desarrollo sinergético y convergiendo en un nuevo paradigma. Sigamos las etapas de la innovación en los tres principales campos tecnológicos que, aunque estrechamente interrelacionados, constituyen la historia de las tecnologías basadas en la electrónica: la micro- electrónica, los ordenadores y las telecomunicaciones.
El transistor, inventado en 1947 en los Laboratorios Bell de Murray Hill (Nueva Jersey) por tres físicos, Bardeen, Brattain y Shockley (ganadores del Premio Nobel por este descubrimiento), hizo posible procesar los impulsos eléctricos a un ritmo más rápido en un modo binario de interrupción y paso, con lo que se posibilitó 1a codificación de la lógica y la comunicación con máquinas y entre ellas: denominamos a estos dispositivos de procesamiento semiconductores y la gente comúnmente los llama chips (en realidad formados por millones de transistores). El primer paso para la difusión del transistor se dio con la invención efectuada por Shockley del transistor de contacto en 1951. No obstante, su fabricación y uso extendido requerían nuevas tecnologías de fabricación y la utilización de un material apropiado. El paso al silicio, construyendo la nueva revolución literalmente sobre la arena, fue efectuado por primera vez por Texas Instruments (en Dallas) en 1945 (cambio facilitado por la contratación en 1953 de Gordon Teal, otro sobresaliente científico de los Laboratorios Bell). La invención del proceso planar en 1959 por Fairchild Semiconductors (en Silicon Valley) abrió la posibilidad de integrar componentes miniaturizados con una fabricación de precisión.
No obstante, el paso decisivo en la microelectrónica se había dado en 1957: el circuito integrado fue coinventado por Jack Kilby, ingeniero de Texas Instruments (que lo patentó) y Bob Noyce, uno de los creadores de Fairchild. Pero fue Noyce quien los fabricó primero, utilizando el proceso planar. Desató una explosión tecnológica: en sólo tres años, entre 1959 y 19ó2, los precios de los semiconductores cayeron un 85% y en los años siguientes la producción se multiplicó por veinte, el 50% de la fue para usos militares. Como comparación histórica, el precio de la de algodón tardó setenta años (1780-1850) en caer un 85% en Gran Bretaña durante la revolución industrial. Luego, el movimiento se aceleró durante la década de los sesenta: cuando mejoró la tecnología de fabricación y se ayudó al perfeccionamiento del diseño de los chips con poderosos ordenadores que utilizaban dispositivos microelectrónicos más rápidos y potentes, el precio medio de un circuito integrado cayó de 50 dólares en 1962 a 1 dólar en 1971.
El salto gigante hacia adelante en la difusión de la microelectrónica todas las máquinas llegó en 1971 con la invención efectuada por un ingeniero de Intel, Ted Hoff (también en Silicon Valley), del microprocesador, esto es, el ordenador en un chip. De este modo, el poder de procesar información podía instalarse en todas partes. Estaba en marcha la cal en pos de una capacidad de integración cada vez mayor de circuitos e único chip, con la tecnología del diseño y la fabricación en supera constante de los límites de integración que con anterioridad se consideraban físicamente imposibles a menos que se abandonara el material de silicio. A mediados de la década de 1990, las valoraciones técnicas todavía otorgan diez o veinte años de buena vida a los circuitos basados en el silicio, si bien se ha acometido la investigación sobre materiales alternativos. El grado de integración ha progresado a pasos agigantados en las dos mas décadas. Aunque los detalles técnicos no tienen cabida en este libro resulta importante desde el punto de vista analítico indicar la velocidad de extensión del cambio tecnológico.
Como es sabido, la potencia de los chips puede evaluarse medio una combinación de tres características: su capacidad de integración, indicada cada por la mínima anchura de las líneas del chip, medida en mi (1 micra = 1 millonésima parte de una pulgada); su capacidad de memoria medida en bits: miles (k) y millones (megabits); y la velocidad del microprocesador, medida en megahercios. Así, el primer procesador de 1971 se presentó en líneas de unas 6,5 micras; en 1980 alcanzó 4 micras; en 1 micra; en 1995, el chip del Pentium de Intel presentaba un tamaño de 0.35 micra; y cuando se estaba escribiendo esto, los proyectos eran alcanzar 0,25 de micra en 1999. De este modo, donde en 1971 se empaquetaban 2.300 transistores en un chip del tamaño de una chincheta, en 1993 había 35 millones de transistores. La capacidad de memoria, indicada por la capacidad DRAM (Dynamic Ramdom Access Memory), era en 1971 de 1.024 bits; en 1980, de 64.000; en 1987, de 1.024.000; en 1993, de 16.384.000; y la proyectada para 1999 es de 256.000.000. En lo que respecta a la velocidad, los microprocesadores actuales de 64 bits son 550 veces más rápidos que el primer chip Intel de 1972; y las MPU se duplican cada dieciocho meses. Las proyecciones para 2002 prevén una aceleración de la tecnología de la microelectrónica en integración (chips de 0,18 micras), capacidad DRAM (1.024 megabits) y velocidad del microprocesador (500 megahercios más en comparación con los 150 de 1993).
Combinado con los avances espectaculares en el procesamiento paralelo de microprocesadores múltiples (incluida, en el futuro, la unión de microprocesadores múltiples en un solo chip), parece que el poder de la microelectrónica aún está liberándose, con lo que la capacidad informática va aumentando de forma inexorable. Además, la mayor miniaturización, la mayor especialización y el descenso de los precios de los chips cada vez más potentes hicieron posible colocarlos en todas las máquinas de nuestra vida cotidiana, desde los lavavajillas y los hornos microondas hasta los automóviles, cuya electrónica, en los modelos estándar de la década de 1990, era más valiosa que su acero.
Desde la Segunda Guerra Mundial, madre de todas las tecnologías, también se concibieron los ordenadores, pero no nacieron hasta 194ó en Filadelfia, si se exceptúan los aparatos de uso bélico, como el Colossus británico de 1943, aplicado a descifrar los códigos enemigos, y el Z-3 alemán, al parecer producido en 1941 para ayudar a los cálculos de la aviación.
No obstante, la mayor parte del esfuerzo aliado en electrónica se concentró en los programas de investigación del MIT, Y la experimentación real del poder de cálculo, bajo el patrocinio del ejército estadounidense, se realizó en la Universidad de Pensilvania, donde Mauchly y Eckert produjeron en 194ó el primer ordenador con fines generales, el ENIAC (Electronic Numerical Integrator and Calculator). Los historiadores recordarán que el primer ordenador electrónico pesaba 30 toneladas, fue construido en módulos de metal de dos metros y medio de altura, tenía 70.000 resistores y 18.000 tubos de vacío, y ocupaba la superficie de un gimnasio. Cuando se prendía, su consumo eléctrico era tan alto que la red eléctrica de Filadelfia titilaba.

No obstante, la primera versión comercial de esta máquina primitiva, UNIVAC-1, producida en 1951 por el mismo equipo, entonces bajo la marca Remington Rand, tuvo un gran éxito en el procesamiento del censo estadounidense de 1950. IBM, también respaldada por contratos militares y basándose en parte en la investigación del MIT, superó sus primeras reservas hacia la era del ordenador y entró en la carrera en 1953 con su máquina de tubo de vacío 701. En 1958, cuando Sperry Rand presentó un ordenador maínframe (nombre que hacía referencia a mes cajas metálicas donde se alojaban las unidades centrales de proceso) de segunda generación, IBM le siguió de inmediato con su modelo 7090. Pero hasta 1964, con su ordenador maínframe 360/370, no llegó a la industria de los ordenadores, poblada por nuevas empresas de doras (Control Data, Digital) y antiguas (Sperry, Honeywell, BlJ NCR), la mayoría de las cuales en la década de 1990 se habían fundido o habían desaparecido: así de rápido ha actuado la «destrucción creativa schumpeteriana en la industria electrónica». En esa época antigua, es decir, treinta años antes de que se escribiera este texto, la industria se organizó en una jerarquía bien definida de maínframes, miniordenadores (en realidad, máquinas bastante voluminosas) y terminales, dejando alguna especialidad informática al esotérico mundo de los superordenadores (una fertilización cruzada de predicción meteorológica y juegos bélicos) donde el extraordinario genio de Seymour Cray, pese a su falta de visión tecnológica, reinó durante algún tiempo.
La microelectrónica cambió todo esto al introducir una «revolución dentro de la revolución». El advenimiento del microprocesador con la capacidad de colocar un ordenador en un chip, cambió de arriba abajo el mundo de la electrónica y, en realidad, el mundo. En 1975 Ed. Roberts, un ingeniero que había creado una pequeña compañía de calculadoras, la MITS, en Albuquerque (Nuevo México), construyó de cálculo con el increíble nombre de Altair, por un personaje de la televisión Star Trek que era objeto de la admiración de su niña. La maquina era primitiva, pero estaba construida como un ordenador de pequeña escala en torno a un microprocesador. Fue la base para del Apple I y luego del Apple II, el primer microordenador comercializado con éxito, realizado en el garaje de las casas paternas por dos jóvenes que habían abandonado los estudios, Steve Wozniak y Steve Jobs en Menlo Park (Silicon Valley), en una saga verdaderamente extraordinaria que ahora ya se ha convertido en la leyenda fundadora de la Era de la información. Lanzada en 1976 con tres socios y 91.000 dólares como capital Apple Computers ya había alcanzado en 1992 583 millones en ventas anunciando la era de la difusión del poder del ordenador. IBM reaccionó rápido y en 1981 presentó su versión propia de microordenador con un nombre brillante: el Ordenador Personal (PC), que se convirtió de hecho en el acrónimo de los miniordenadores. Pero debido a que no se basó en tecnología propia, sino en la desarrollada para IBM por otras fuentes se volvió vulnerable al clonaje, de inmediato practicado a escala masiva sobre todo en Asia. No obstante, aunque este hecho acabó sentenciando el dominio del negocio en ordenadores personales, también extendió por todo el mundo el uso de los clónicos de IBM, difundiendo un estándar común, pese a la superioridad de las máquinas de Apple. El Macintosh de Apple, lanzado en 1984, fue el primer paso hacia una informática fácil para el usuario, con la introducción de la tecnología de la interfaz de usuario basada en el icono, desarrollada originalmente en el Centro de Investigación de Palo Alto de la Xerox.
Con el desarrollo de un nuevo software adaptado a su funcionamiento, se cumplió una condición fundamental para la difusión de los microordenadores. El software para los ordenadores personales también surgió a mediados de los años setenta por el entusiasmo generado por Altair: dos jóvenes que habían abandonado sus estudios en Harvard, Bill Gates y Paul Allen, adaptaron el BASIC para que funcionara en la máquina Altair en 1976. Cuando comprendieron todas sus posibilidades, fundaron Microsoft (primero en Albuquerque, para trasladarse dos años después a Seattle, donde vivían los padres de Gates), gigante del software actual que transformó el dominio del software del sistema operativo en dominio del software del mercado del microordenador en su conjunto, un mercado que crece de forma exponencial.
En los últimos quince años, la potencia creciente del chip ha dado como resultado un llamativo aumento de la potencia de la microinformática, con lo que se ha reducido la función de los ordenadores mayores. A comienzos de la década de 1990, los microordenadores de un único chip ya tenían la capacidad de procesamiento de IBM sólo cinco años antes. Los sistemas basados en microprocesadores interconectados, compuestos por ordenadores de escritorio, máquinas menores (clientes), atendidas por máquinas más potentes y dedicadas (servidores), puede que acaben suplantando a los ordenadores de procesamiento de información más especializados, como los mainframes y superordenadores tradicionales. En efecto, a los avances en microelectrónica y software, hay que añadir los importantes progresos efectuados en cuanto a las capacidades de interconexión. Desde mediados de la década de 1980, los microordenadores no pueden concebirse en aislamiento: actúan en redes, con una movilidad creciente, mediante ordenadores portátiles. Esta extraordinaria versatilidad, y la posibilidad de añadir memoria y capacidad de procesamiento compartiendo la potencia informática en una red electrónica, cambió de forma decisiva la era del ordenador en la década de 1990 de un almacena- miento y procesamiento de datos centralizado a la utilización compartida de la potencia del ordenador interactivo en red. No sólo cambió todo el sistema tecnológico, sino también sus interacciones sociales y organizativas. De este modo, el coste medio del procesamiento de la información descendió de unos 75 dólares por millón de operaciones en 19ó0 a menos de un céntimo de centavo en 1990.
Esta capacidad de interconexión sólo se hizo posible, como es natural, debido a los importantes avances ocurridos tanto en las telecomunicaciones como en las tecnologías de las redes informáticas durante la década de 1970. Pero, al mismo tiempo, tales cambios sólo fueron posibles por la combinación de nuevos dispositivos microelectrónicos y la intensificación de la capacidad informática, en un ejemplo de relación sinergética en la revolución tecnología de la información.
Las telecomunicaciones también han sufrido la revolución producida por la combinación de las tecnologías de «nodo» (conmutadores y selectores de rutas electrónicos) y los nuevos enlaces (tecnologías de la transmisión). El primer conmutador electrónico que se produjo industrialmente, el ESS-1, fue presentado por los Laboratorios Bell en 1969. Para mediados de los años setenta, el avance en las tecnologías del circuito integrado ya había hecho posible el conmutador digital, que aumenta velocidad, la potencia y la flexibilidad, a la vez que se ahorraba espacio, energía y trabajo, frente a los dispositivos analógicos. Pese a ATT, los padres del descubrimiento, los Laboratorios Bell, al principio se mostraron reacios a su presentación debido a la necesidad de amortizar la inversión ya realizada en equipamiento analógico, pero cuando en 1977 Northern Telecom de Canadá se hizo con una parte del mercado estadounidense al llevar la delantera en conmutadores digitales, las empresas Bell se unieron a la carrera y desataron un movimiento similar en todo el mundo.
Los importantes avances en optoelectrónica (fibras ópticas y transmisión por láser) y en la tecnología de la transmisión de paquetes digitales ampliaron de forma espectacular la capacidad de las líneas de transmisión. Las Redes Digitales de Servicios Integrados de Banda A (RDSI-BA) imaginadas en la década de 1990 podían sobrepasar con creces las revolucionarias propuestas de los años setenta de una Red Digital de Servicios Integrados (RDSI): mientras que la capacidad de transporte de la RDSI sobre alambre de cobre se estimaba en 144.000 bits, la RDSBA de los años noventa sobre fibra óptica, siempre y cuando se hiciera realidad a un alto precio, podría transportar mil billones de bits. Para medir el ritmo de cambio, recordemos que en 1956 el primer cable telefónico trasatlántico conducía 50 circuitos de voz comprimidos; en 1995, las fibras ópticas podían conducir 85.000 circuitos semejantes. Esta capacidad de transmisión basada en la optoelectrónica, junto con avanzadas arquitecturas de conmutación y selección de rutas, como el Modo de Transferencia Asíncrono (Asynchronous Transfer Mode, ATM) y el Protocolo de Control de Transmisión/Protocolo de Interconexión (Transmisión: Control Protocol/Interconnection Protocol [TCP/IP]), son la base de la denominada autopista de la información, cuyas características se exponen en el capítulo 5.
Las diferentes formas de utilización del espectro de la radio (transmisión tradicional, transmisión directa por satélite, microondas, telefonía celular digital), así como el cable coaxial y la fibra óptica, ofrecen una diversidad y versatilidad de tecnologías de transmisión que se están adaptando a toda una gama de empleos y posibilitando una comunicación ubicua entre usuarios móviles. De este modo, la telefonía celular se difundió con fuerza por todo el mundo en la década de los noventa, salpicando literalmente toda Asia con buscapersonas sencillos y a América Latina con teléfonos celulares, símbolos de posición social, con la promesa (por ejemplo, de Motorola) de contar con un próximo aparato de comunicación personal con cobertura universal antes del año 2000. Cada paso de gigante en un campo tecnológico específico amplifica los efectos de las tecnologías de la información relacionadas. Así, el teléfono móvil, basado en el poder del ordenador para canalizar mensajes, proporciona al mismo tiempo la base para el procesamiento informático ubicuo y, en tiempo real, una comunicación electrónica interactiva.

La divisoria tecnológica de los años setenta

Este sistema tecnológico en el que estamos plenamente sumergidos en la década de 1990 cuajó en los años setenta. Debido a la trascendencia de contextos históricos específicos para las trayectorias tecnológicas y a la forma particular de interacción de la tecnología y la sociedad, es importante recordar unas cuantas fechas asociadas con descubrimientos esenciales en las tecnologías de la información. Todos ellos tienen algo sustancial en común: aunque basados en buena medida en el conocimiento previo existente y desarrollado en prolongación de tecnologías clave, representaron un salto cualitativo en la difusión masiva de la tecnología en aplicaciones comerciales y civiles, debido a su asequibilidad y su coste descendente para una calidad en aumento. Así pues, el microprocesador, el artefacto clave en la expansión de la microelectrónica, se inventó en 1971 y comenzó a difundirse a mediados de los años setenta. El microordenador se inventó en 1975 y el primer producto que gozó de éxito comercial, el Apple II, se presentó en abril de 1977, en tomo a la misma fe- cha en que Microsoft comenzó a producir sistemas operativo s para microordenadores. El Xerox Alto, matriz de muchas tecnologías de software para los ordenadores personales de la década de 1990, fue desarrollado en los laboratorios P ARC de Palo Alto en 1973. El primer conmutador electrónico industrial apareció en 19ó9 y el digital se desarrolló a mediados de la década de 1970 y se difundió comercialmente en 1977. La fibra óptica fue producida por primera vez de forma industrial por Corning Glass a comienzos de la década de 1970. También a mediados de esa década, Sony empezó a producir comercialmente máquinas de vídeo, basándose en descubrimientos estadounidenses e ingleses de los años sesenta que nunca alcanzaron una producción masiva. Y por último, pero no menos importante, fue en 19ó9 cuando el Departamento de Defensa estadounidense, por medio de la Advanced Research Project Agency (ARPA), estableció una red de comunicación electrónica revoluciónaria que crecería durante la década siguiente para convertirse en la actual internet. Le fue de gran ayuda el invento efectuado por Cerf y Kahn 1974 del TCI/IP, el protocolo de red de interconexión que introdujo tecnología de «entrada», permitiendo que diferentes tipos de redes se entrelazaran. Creo que se puede decir sin exagerar que la Revolución ( tecnología de la información, como tal revolución, nació en la década 1970, sobre todo si se incluye en ella el surgimiento y difusión paralelos de la ingeniería genética en torno a las mismas fechas y lugares, un descubrimiento que merece, cuando menos, unas cuantas líneas de atención .
Las tecnologías de la vida
Si bien los orígenes de la biotecnología pueden remontarse hasta tablilla babilonia sobre la preparación de cerveza del 6000 a.C. y los revolución en la microbiología, hasta el descubrimiento científico de la estructura básica de la vida, la doble hélice del ADN, efectuado por Francis Crick y James Watson en la Universidad de Cambridge en 1953, no fue hasta comienzos de la década de 1970 cuando la unión de los genes y la recombinación del ADN, la base tecnológica de la ingeniería genética cuajó en la forma de conocimiento acumulativo. Se suele atribuir a Stanley Cohen, de Stanford, y Herbert Boyer, de la Universidad de California en San Francisco, el descubrimiento de los procedimientos de clonación del gen, si bien su trabajo se basó en la investigación realizada por el premio Nobel Paul Berg, de Stanford. En 1975, los investigadores de Harvard aislaron el primer gen de mamífero de la hemoglobina de un conejo y en 1977 se clonó el primer gen humano.
Lo que siguió fue una carrera para poner en marcha firmas comerciales, la mayoría de ellas derivaciones de las principales universidades y centros de investigación hospitalaria, y agrupadas en California del norte, Nueva Inglaterra y Maryland. Periodistas, inversores y activistas sociales sintieron por igual el impacto de las pasmosas posibilidades abiertas por la capacidad potencial de manipular la vida, incluida la humana. Genentech, en South San Francisco, Cetus, en Berkeley, y Biogen, en Cambridge (Massachusetts), fueron de las primeras compañías, organizadas en torno a los premios Nobel, en utilizar nuevas tecnologías genéticas para aplicaciones médicas. Pronto siguieron las empresas agrícolas, y se otorgó a los microorganismos, algunos alterados genéticamente, un número creciente de asignaciones, no la menos importante limpiar la contaminación, creada con frecuencia por las mismas empresas y organismos que vendían los supermicrobios. No obstante, dificultades científicas, problemas técnicos e importantes obstáculos legales derivados de justificadas preocupaciones éticas y de seguridad, retrasaron la revolución biotecnológica durante la década de los ochenta. Se perdió una considerable suma de inversión de capital de riesgo y algunas de las compañías más innovadoras, incluida Genentech, se vieron absorbidas por las gigantes farmacéuticas (Hoffman-La Roche, Merck), que mejor que ningún otro comprendieron que no podían imitar la costosa arrogancia que habían exhibido las firmas informáticas de reconocido prestigio con respecto a las innovadoras que se ponían en marcha: comprar empresas pequeñas e innovadoras, junto con sus servicios científicos, se convirtió en una importante póliza de seguro para las multinacionales farmacéuticas y químicas, tanto para asimilar los beneficios comerciales de la revolución biológica, como para controlar su ritmo. Después se aflojó el paso, al menos en la difusión de sus aplicaciones.
Sin embargo, a finales de la década de los ochenta y comienzos de la siguiente, un importante impulso científico y una nueva generación de arriesgados empresarios científicos revitalizaron la biotecnología, que se centró de forma decisiva en la ingeniería genética, la verdadera tecnología revolucionaria dentro del campo. La clonación genética entró en una nueva etapa cuando, en 1988, Harvard patentó legalmente un ratón manipulado genéticamente, arrebatando a Dios y a la Naturaleza los derechos legales de la vida. En los siete años siguientes, otros siete ratones fueron también patentados como formas de vida de nueva creación, identificadas como propiedad de sus ingenieros. En agosto de 1989, los investigadores de la Universidad de Michigan y Toronto descubrieron el gen responsable de la fibrosis cística, abriendo el camino para la terapia genética.
A la estela de las expectativas generadas por este descubrimiento, el gobierno estadounidense decidió, en 1990, patrocinar y financiar con 3.000 millones de dólares un programa de quince años, coordinado por James Watson, que reunió a algunos de los equipos de investigación sobre microbiología más avanzados para trazar el mapa del genoma humano, esto es, para identificar y localizar los 60.000 a 80.000 genes que componen el alfabeto de la especie humana. Mediante este esfuerzo y otros más, se ha identificado una corriente continua de genes humanos, relacionados con diversas enfermedades, de modo que para mediados de la década de 1990 ya se han localizado en tomo a un 7% de los genes humanos y se posee un conocimiento adecuado de su función. Por supuesto, ello crea la posibilidad de actuar sobre esos genes y los que se identifiquen en el futuro, con lo que la humanidad es capaz no sólo de controlar algunas enfermedades, sino de identificar predisposiciones biológicas e intervenir sobre ellas, alterando potencialmente el destino genético. Lyon y Gorner concluyen su equilibrada investigación de 1995 sobre los avances de la ingeniería genética humana con una predicción y una admonición:

En unas cuantas generaciones podríamos acabar quizá con ciertas enfermedades mentales, o con la diabetes, o con la alta presión sanguínea, o casi con cualquier dolencia que seleccionemos. Lo más importante que debe tenerse en cuenta es q la calidad de la toma de decisiones dicta si las elecciones que se efectúen serán más y justas. [...] El modo bastante ignominioso en que la elite científica y administrativa está manejando los primeros frutos de la terapia genética no augura nada bueno. [...] Los humanos hemos evolucionado intelectualmente hasta el punto que, relativamente pronto, seremos capaces de comprender la composición, función y dinámicas del genoma en buena parte de su complejidad intimidante. Sin embargo, desde el punto de vista emocional, seguimos siendo monos, con todo bagaje de comportamiento que ello supone. Quizá la forma suprema de la terapia genética para nuestra especie sea superar nuestra herencia más abyecta y aprender a aplicar nuestro nuevo conocimiento prudente y benévolamente.
No obstante, mientras científicos, legisladores y moralistas debaten sobre las implicaciones humanísticas de la ingeniería genética, investigadores convertidos en empresarios están tomando el camino más corto estableciendo mecanismos para obtener el control legal y financiero del genoma humano. El intento más atrevido en este sentido fue el proyecto iniciado en 1990 en Rockville (Maryland) por dos científicos, J. Craig Venter, entonces con el Instituto Nacional de Salud, y William Haseltinel entonces en Harvard. Utilizando el poder de un superordenador, ordenaron en serie en sólo cinco años partes de cerca del 85% de todos los genes humanos, creando una gigantesca base de datos genética. El problema es que no saben, y no lo sabrán en mucho tiempo, qué es cada trozo gen o dónde se localiza: su base de datos comprende cientos de miles de fragmentos genéticos con funciones desconocidas. Entonces, ¿cuál su interés? Por una parte, la investigación centrada en genes específicos puede aprovecharse (y de hecho lo hace) de los datos contenidos en e! secuencias. Pero, lo que es más importante y la principal razón de todo proyecto, Craig y Haseltine se han dado prisa en patentar todos sus datos de tal manera que, literalmente, puede que un día posean los derechos legales sobre una gran porción del conocimiento para manipular el genoma humano. La amenaza que ello suponía era tan seria que, si bien por una parte atrajeron decenas de millones de dólares de los inversores, por otra, una importante compañía farmacéutica, Merck, otorgó fondos cuantiosos a la Universidad Washington para que prosiguiera con las mismas secuencias ciegas e hiciera públicos los datos para que no existiera un control privado de fragmentos de conocimiento que pudieran bloquear el desarrollo de productos basados en la compresión sistemática futura del genoma humano.
La lección de tales batallas empresariales para el sociólogo va más allá de otro ejemplo de la codicia humana. Señala una aceleración de la velocidad y la profundidad en la revolución genética. Debido a su especificidad tanto científica como social, la difusión de la ingeniería genética se desarrolló a un ritmo más lento durante el periodo 1970-1990 que el observado en la electrónica. Pero en la década de 1990, la apertura de más mercados y el aumento de la capacidad educativa e investigadora por todo el mundo han acelerado la revolución biotecnológica. Todos los indicios apuntan hacia la explosión de sus aplicaciones con el cambio de milenio, desatando así un debate fundamental en la frontera ahora borrosa entre naturaleza y sociedad.
El contexto social y las dinámicas del cambio tecnológico
¿Por qué los descubrimientos sobre las nuevas tecnologías de la información se agruparon en la década de los años setenta y en su mayor parte en los Estados Unidos? ¿Y cuáles son las consecuencias de esta concentración de tiempo/lugar para el desarrollo futuro y para su interacción con las sociedades? Resultaría tentador relacionar de forma directa la formación de este paradigma tecnológico con las características de su contexto social. En particular, si recordamos que a mediados de la década de los años setenta los Estados Unidos y el mundo occidental se vieron sacudidos por una importante crisis económica, estimulada (pero no causada) por los choques petroleros de 1973-1974. Una crisis que impulsó la espectacular reestructuración del sistema capitalista a escala global, induciendo en realidad un nuevo modelo de acumulación en discontinuidad histórica con el capitalismo posterior a la Segunda Guerra Mundial, como he propuesto en el prólogo de este libro. ¿Fue el nuevo paradigma tecnológico una respuesta del sistema capitalista para superar sus contradicciones internas?
¿O fue además un modo de asegurar la superioridad militar sobre el enemigo soviético, respondiendo a su reto tecnológico en la carrera espacial y el armamento nuclear? Ninguna de estas dos explicaciones parece convincente. Si bien existe una coincidencia histórica entre el agrupa- miento de nuevas tecnologías y la crisis económica de los años setenta, su sincronización es demasiado exacta, el «ajuste tecnológico» habría sido demasiado rápido, demasiado mecánico, cuando sabemos de las lecciones de la Revolución industrial y otros procesos históricos de cambio tecnológico que las sendas económica, industrial y tecnológica, aunque se relacionan, se mueven con lentitud y adecuan su interacción de forma imperfecta. En cuanto al argumento militar, al impacto del Sputnik de 1957- 1960 se respondió con el programa espacial estadounidense mediante inversión tecnológica masiva de los años sesenta, no de los setenta; y nuevo impulso importante a la tecnología militar estadounidense se acometió en 1983 en torno al programa «Guerra de las Galaxias», que en realidad utilizó las tecnologías desarrolladas en la década prodigiosa precedente. De hecho, parece que ha de seguirse la pista del surgimiento de un nuevo sistema tecnológico en la década de 1970 hasta la dinámica autónoma del descubrimiento tecnológico y su difusión, incluidos los efectos sinergéticos entre varias tecnologías clave. Así, el microprocesador hizo posible el microordenador; los avances en las telecomunicaciones, con ya se ha mencionado, permitieron a los microordenadores funcionar en red, con lo que se aumentó su potencia y flexibilidad. Las aplicaciones de estas tecnologías a la fabricación electrónica acrecentó el potencial de nuevas tecnologías de diseño y fabricación en la producción de semiconductores. El nuevo software se vio estimulado por el rápido crecimiento del mercado de microordenadores, que a su vez se expandió por las nuevas aplicaciones, y de las mentes de los escritores de software surgieron en profusión tecnologías fáciles para el usuario. Y así sucesivamente.
El fuerte impulso tecnológico inducido por el ejército en la década 1960 preparó a la tecnología estadounidense para el salto hacia adelante Pero la invención realizada por Ted Hoff del microprocesador, cuando trataba de cumplir un pedido para una empresa japonesa de calculadores manuales en 1971, se produjo por el conocimiento e ingenio acumulado en Intel, en estrecha interacción con el medio de innovación creado desde la década de 1950 en Silicon Valley. En otras palabras, la primera revolución de la tecnología de la información se concentró en los Estados Unidos, y en buena medida en California, en la década de 1970, atendiendo los avances de las dos décadas previas y bajo la influencia de diversos factores institucionales, económicos y culturales. Pero no surgió de ninguna necesidad preestablecida: su inducción fue tecnológica, en lugar de ser determinada por la sociedad. Sin embargo, una vez que cobró existencia como sistema, en virtud del agrupamiento que he descrito, sus desarrollos y aplicaciones, y, en definitiva, su contenido, resultaron moldeados de forma decisiva por el contexto histórico en el que se expandió. En efecto, en la década de 1980, el capitalismo (en concreto, las principales empresas y los gobiernos del club de los países del G-7) ya habían emprendido un proceso sustancial de reestructuración económica y organizativa, en que la nueva tecnología de la información desempeñaba un papel fundamental que la conformó decisivamente. Por ejemplo, el movimiento impulsado por las empresas hacia la desregulación y liberalización en la década de 1980 fue concluyente para la reorganización y el crecimiento, las telecomunicaciones, de modo más notable tras el desposeimiento de ATT. A su vez, la disponibilidad de nuevas redes de telecomunicaciones sistemas de información puso los cimientos para la integración global de los mercados financieros y la articulación segmentada de la producción y el comercio de todo el mundo, como examinaremos en el capítulo siguiente.
De este modo y hasta cierta medida, la disponibilidad de nuevas tecnologías de la década de los ochenta. Y los usos de esas tecnologías en esa década condicionaron en buena parte sus usos y trayectorias en la de 1990. El surgimiento de la sociedad red, que trataré de analizar en los capítulos siguientes de este volumen, no puede entenderse sin la interacción de estas dos tendencias relativamente autónomas: el desarrollo de las nuevas tecnologías de la información y el intento de la antigua sociedad de reequiparse mediante el uso del poder de la tecnología para servir a la tecnología del poder. Sin embargo, el resultado histórico de esa estrategia consciente a medias es en buena medida indeterminado, ya que la interacción de tecnología y sociedad depende de la relación estocástica existente entre un número excesivo de variables casi independientes. Sin rendirnos necesariamente al relativismo histórico, cabe decir que la Revolución de la tecnología de la información se suscitó cultural, histórica y espacialmente, en un conjunto muy específico de circunstancias cuyas características marcaron su evolución futura.
1   2   3   4   5

similar:

Economía, Sociedad y Cultura. Siglo XXI editores 1999 Madrid iconCiencia, tecnologíA, sociedad: implicaciones en la educación científica para el siglo XXI

Economía, Sociedad y Cultura. Siglo XXI editores 1999 Madrid iconJóvenes emprendedores para el siglo xxi”

Economía, Sociedad y Cultura. Siglo XXI editores 1999 Madrid iconLa sostenibilidad, el reto del siglo XXI

Economía, Sociedad y Cultura. Siglo XXI editores 1999 Madrid iconTema las plagas del siglo XXI

Economía, Sociedad y Cultura. Siglo XXI editores 1999 Madrid iconLa cuestión agraria brasileña a comienzos del siglo XXI

Economía, Sociedad y Cultura. Siglo XXI editores 1999 Madrid icon*en cualquier otro periodo de tiempo ajeno al siglo XXI

Economía, Sociedad y Cultura. Siglo XXI editores 1999 Madrid iconPrograma de investigación sobre el envejecimiento para el siglo xxi*

Economía, Sociedad y Cultura. Siglo XXI editores 1999 Madrid iconSoberanías negociadas en las cotidianidades del siglo xxi”

Economía, Sociedad y Cultura. Siglo XXI editores 1999 Madrid iconSi en la asegunda mitad del siglo XX, la economía mundial estuvo...

Economía, Sociedad y Cultura. Siglo XXI editores 1999 Madrid iconTendencias de la arquitectura habitacional en los albores del siglo XXI


Medicina



Todos los derechos reservados. Copyright © 2015
contactos
med.se-todo.com