La definición de la informática educativa, parte de la definición de Informática que se entiende como la ciencia que realiza un tratamiento automático y






descargar 0.88 Mb.
títuloLa definición de la informática educativa, parte de la definición de Informática que se entiende como la ciencia que realiza un tratamiento automático y
página9/29
fecha de publicación29.08.2016
tamaño0.88 Mb.
tipoDocumentos
med.se-todo.com > Documentos > Documentos
1   ...   5   6   7   8   9   10   11   12   ...   29

2. Nuestro Contexto Tecnológico


La tecnología avanza tan rápido que no da tiempo a pensar y diseñar soluciones eficientes con ella. A continuación quiero mostrar como muchas de las soluciones que usamos (y en consecuencia, sus diseños) están basadas en suposiciones que ya no son válidas; y como soluciones existentes en el pasado vuelven por sus fueros. Sin embargo, a la larga la carrera tecnológica se vence a si misma. Pero comencemos con un poco de historia.

Un Poco de Historia


Tantas veces se han redescubierto las cosas. Pareciera que Windows descubrió las interfaces gráficas, sin conocer la historia de Xerox Parc y luego Apple. Otros creen que la tecnología RISC fue inventada por IBM por su línea de equipos RS-6000, sin saber que fue desarrollada a mediados de los 70. Hagamos un análisis del desarrollo de la computación en estos últimos años. Muchas de las tecnologías han avanzado exponencialmente. Este es el caso de la famosa Ley de Moore que dice que la capacidad de los microprocesadores se dobla cada 18 meses. Esta predicción, realizada en 1965, aún se cumple [HAM99]. Así sucede con la capacidad de un chip de memoria por dólar que ha aumentado 134 millones de veces en los últimos 40 años. Recientemente, un crecimiento similar se puede apreciar en Internet. El número de computadores conectados se dobla cada 15 meses. Esto no puede seguir así pues hoy en día ya más del 20% de los computadores que existen en el mundo están conectados y sino habrían tantos computadores como personas en el año 2010. Por otra parte, el crecimiento de Web es áun más impresionante. Desde 1993, el número de servidores se dobla cada 3 meses, sobrepasando hoy los seis millones. En forma similar, el tramo principal de Internet en Estados Unidos ha aumentado su capacidad en más de 1000 veces en la década del 80 y posiblemente un valor similar en esta década. Pese a esto, el tráfico en la red crece aún más rápido.

En la Tabla 1 comparamos un computador personal actual con uno típico de hace 16 años. Como observamos, la capacidad de almacenamiento ha aumentado en más de 200 veces y la de procesamiento en al menos 100 veces. Estas diferencias drásticas en desarrollo causan problemas. Por ejemplo, los avances de velocidad en redes (se pronostican Gb por segundo) son difíciles de aprovechar ya que los procesadores no son igual de rápidos. Otras tecnologías no han evolucionado de la misma forma, como en la tasa de transferencia de discos que ha aumentado mucho menos, siendo hoy la entrada/salida uno de los cuellos de botella actuales.
 


Elemento/Año 

1983 

1999 

Factor

Procesador 

    5MHz 

    500MHz 

    100 

Memoria 

64Kb 

32Mb 

500

Disco 

20Mb 

4Gb 

200

Tabla 1: Desarrollo de los Computadores Personales.

Por otra parte los usuarios no hemos ni siquiera duplicado nuestra capacidad y sin embargo a veces me asombra lo fácil que es acostumbrarnos a algo más grande (como dice una de las acepciones de la Ley de Murphy, no importa de que tamaño sea el disco, siempre está casi lleno). Lo mismo podemos decir del software que tampoco ha tenido un avance espectacular, por no decir que los métodos no han cambiado mucho en los últimos 10 años. Aunque es cierto que ahora muchos de los recursos computacionales son baratos, la solución no es usar el diseño que ya teníamos, sin optimizarlo y pedirle al usuario que se compre un computador dos veces más grande y más rápido.

Las características principales del mundo de la computación actual están dadas en su mayoría por el efecto de Internet. Entre ellas podemos mencionar interactividad, procesamiento e información distribuida, digitalización y uso de múltiples medios, uso de recursos en forma compartida y sistemas colaborativos, normalización y sistemas abiertos. Es difícil hacer predicciones, muchos erraron en el pasado. Los ejemplos más famosos son del fundador de IBM, Thomas Watson, en 1943: Creo que hay mercado para 5 computadores y del fundador de Digital, Kenneth Olsen, en 1977: No hay razón para que una persona quiera tener un computador en casa. Algunas especulaciones en el corto plazo incluye la masificación de la fibra óptica, el desarrollo de las redes inalámbricas, la convergencia de los PCs y las estaciones de trabajo Unix, el mayor uso de herramientas colaborativas y por supuesto, la masificación total de los computadores e Internet.

Sistemas Operativos y Redes


La mayoría de los supuestos en los fundamentos de los sistemas operativos tradicionales ya no son válidos. En el pasado los recursos de hardware (CPU, memoria, disco) eran muy caros y se trataba de reducir su uso. Luego muchas de las soluciones fueron más complicadas de lo necesario, para reducir el costo o el impacto en los recursos compartidos.

Estos supuestos cambiaron en la década de los 80 y junto con el abaratamiento de los costos, también la velocidad de procesadores y memorias aumentó en más de 100 veces. ¿Por qué entonces los sistemas operativos no son al menos 100 veces más rápidos? Para adaptar las soluciones existentes, primero se usaron mejoras en las interfaces (por ejemplo la memoria cache). Sin embargo, un límite máximo dado por la complejidad de la solución misma no podía ser sobrepasado. La solución es simplificar la solución. Este es el paradigma de "rapidez gracias a simplicidad". Uno de los corolarios de este paradigma ha sido el auge de procesadores RISC en vez de CISC.

Por otra parte se olvida la historia. Windows 1.0 nunca fue vendido, Windows 2.0 fue un fracaso, y sólo Windows 3.0 fué un éxito, siendo sólo un buen parche a DOS. Windows NT necesita un mínimo de 16Mb y se sugiere 32Mb. Que pasó con los 64K que necesitaba DOS. ¿Tan barata es la memoria que podemos olvidarnos de ser eficiente? ¿Tan rápidos son los procesadores que podemos olvidarnos de buenas estructuras de datos y algoritmos? Los defensores de Windows NT dirán que es mucho mas que DOS, que incluye un sistema de ventanas, conectividad a redes, multiproceso, etc. Bien, pero por ejemplo Linux con X-Windows funciona con 4Mb y mejor si son 8Mb. ¿Por qué entonces Windows NT necesita tantos recursos? Claramente hay un problema de diseño. El auge de la computación móvil puede ayudar a que se mejoren los diseños en este ámbito, pues no podemos darnos el lujo de tener muchos recursos o usar mucha energía (batería).

Un fenómeno similar ha ocurrido en redes. Antes eran caras y lentas. Ahora son baratas y rápidas. La mayoría de las tecnologías actuales han tenido que adaptarse a los cambios, aunque todavía se puede hacer mucho más. Por ejemplo, ATM fue diseñado en los 60s y ahora vuelve a la palestra, porque es simple y rápido, alcanzando 155 Mb/s. Sin embargo, aún estamos lejos de las velocidades que se pueden alcanzar en fibra óptica, que son de varios Gb/s.

Otro ejemplo es X-Windows, el sistema de ventanas más popular en Unix, que es transparente al protocolo de red usado. Es decir, es un sistema de ventanas distribuido. El protocolo de comunicación usado por X-Windows supone que la red es rápida y que las acciones gráficas en la pantalla son lentas. Sin embargo, hoy en día eso no es cierto, porque aunque las redes son rápidas, están congestionadas y son compartidas por muchos usuarios. Por otra parte, la velocidad de las pantallas gráficas también ha aumentado.

El Arte de Programar


Programar es quizás el corazón de la Ciencia de la Computación. Es el mundo de los algoritmos y estructuras de datos y de los paradigmas de la programación. A través de su evolución, programar ha sido más un arte que una ciencia o una ingeniería. Por algo la famosa trilogía de Knuth sobre algoritmos y estructuras de datos se titula The Art of Computer Programming [KNU98].

Para muchos programar no es una tarea respetable, para eso están los programadores. Sin embargo debemos distinguir entre las personas que son capaces de diseñar la solución a un problema y convertirla en un programa, de las personas que sólo pueden traducir una solución a un programa. Un programador real como diría Yourdon es el que puede realizar el proceso completo, desde el análisis hasta la implementación.

Programar permite mantener el entrenamiento en la resolución de problemas, ya sean grandes o pequeños. Programar debe ser gratificante. De ninguna manera es denigrante que un ingeniero o lo que sea que pensemos que somos, programe. Al revés, muchas veces nosotros haremos los mejores programas porque somos los que entendemos completamente una solución propia. Otro punto importante es que buen código no es aquel que no se entiende o es más truculento, sino que es el más claro, eficiente y documentado. Muchos ven también el fanatismo de programar como un sinónimo de ser un hacker. Como cualquier adicción en el mundo, los extremos no son buenos. Tampoco hay que confundir hackers con programadores malvados. Hay hackers buenos y hay hackers malos, y los primeros son imprescindibles.

¿Ingeniería de Software?


Hace unos meses, un importante ejecutivo de una gran compañía de computación de Estados Unidos me dijo: podíamos darnos el lujo de hacerlo bien porque teníamos los recursos y queríamos entrar a un mercado nuevo. Por supuesto, a nivel técnico siempre nos gustaría hacerlo bien, pero el mercado dice otra cosa. No hay tiempo, no hay recursos, es ahora o nunca. El resultado son productos mal diseñados y mal probados. Actualmente, la única compañía que podría darse el lujo de hacer las cosas bien en el mercado actual es Microsoft. Pero no pareciera querer hacerlo.

Quizás el mejor ejemplo para comenzar, es el famoso problemita del año 2000 o el problema del milenio (aunque en realidad el próximo siglo comienza en el año 2001). Desde cualquier punto de vista, éste es un problema ridículo con un impacto gigantesco. ¿Deberíamos sentir verguenza? Creo que no.

¿Fue un error considerar sólo 2 dígitos en vez de 4? Todos saben que la razón principal fue usar menos memoria, recurso que hace 20 años era mucho más caro que ahora. Yo creo que no fue ni error ni buen diseño. La verdadera razón es que ninguno de los diseñadores pensó que existiría software que permanecería en funcionamiento por más de 20 años. Ni siquiera hoy en día pensamos eso, contagiados con los cambios anuales del hardware. Es cierto que en algunos casos los programas han evolucionado sin cambiar el diseño original, pero no es lo típico. ¿Por qué seguimos usando ese software? Por las malas costumbres en el desarrollo de software como hemos mencionado.

La computación cambia, pero eso no significa que mejora. Muchas empresas prefieran no cambiar software que sabemos que funciona o que sabemos dónde no funciona, el cual sobrevive a cambios sucesivos de hardware y por ende, muchas veces se pierde el código fuente original. Otras han intenato cambiarlo, pero los proyectos han fracasado por no usar las metodologías y/o herramientas adecuadas. Por otra parte, hoy vemos el otro extremo. El uso de recursos es excesivo y el diseño es secundario. Por ejemplo, Windows´98 tiene más del doble de líneas de código que la última versión de Solaris y ocupa mucha más memoria durante su ejecución. El lector puede hacer su propio análisis de cuál sistema operativo está mejor diseñado, sin contar que mientras más líneas de código hay, potencialmente existe un mayor número de errores. No porque la memoria sea hoy en día más barata, debemos abusar de ello.

¿Por qué ocurre esto? Hagamos un paralelo con la ingeniería civil. ¿Se imaginan construir un puente que se cae cinco veces en su périodo de construcción por errores de diseño? Impensable. Peor aún, se imaginan inaugurarlo para descubrir que hay un error fatal cuando hay 100 personas en el. Imposible. Sin embargo la técnica de prueba y error es usada por todo el mundo en programación. Otro paralelo es el número de diseñadores. Una casa es diseñada por uno a tres arquitectos. ¿Qué pasaría si fueran decenas? Luego es construida sin realizar cambios mayores al diseño. ¿Cuántas veces el diseño es cambiado por los implementadores? Muchas, porque en parte muchas veces son las mismas personas y el tener dos roles sin separarlos claramente siempre es un problema. Mucho se hablaba de reusabilidad, pero recién ahora con bibliotecas de clases y patrones de diseño (design patterns) esta palabra tiene sentido. En el pasado era difícil aprovechar lo hecho por otras personas por innumerables razones: código no disponible, distintos lenguajes o ambientes, falta de documentación, etc. La modularidad y la independencia de componentes es vital si queremos integrar productos y tecnologías distintas. También se habla de calidad. Junto con reuso y el utilizar herramientas de control adecuadas, es posible que en el futuro podamos hablar de ingeniería de software [IEEE98]. Yo, aunque algunos griten al cielo, diría que en la mayoría de los casos es artesanía de software. TeX es el mejor ejemplo, pues inicialmente fue el producto de un excelente artesano, Don Knuth, y hace 10 años que no se encuentra un error en su código (¡y por cada error se paga un monto que crece exponencialmente!). Mientras no cambiemos nuestro modo de pensar y no confiemos en que siempre podemos probar y si hay errores no pasa nada, programar seguirá siendo un arte donde pocos serán maestros y la mayoría serán aprendices. Este cambio debe ser profundo, pues hasta las compañias más grandes de software aún no pueden decir que un producto no tiene ningún error. Los ejemplos de Windows que mostramos a continuación son ilustrativos.

Windows'95 contiene cerca de 15 millones de líneas de código. Usando estimaciones de Caper Jones [JON96], un código de este tamaño tiene un número potencial de errores de casi 3 millones, lo que sirve para estimar cuantas pruebas hacer. Para reducir este número a cinco mil, esto significa al menos unas 18 iteraciones en las pruebas [LEW98a]. Aunque posiblemente las compañías de software debieran realizar más pruebas, esto aumenta el costo y retrasa la salida del producto al mercado. Lamentablemente la historia muestra que sacar nuevas versiones de forma rápida muchas veces implica un producto exitoso. Esto ocurre por que el consumidor no discrimina conforme a la calidad. Esto es menos cierto para productos críticos, como un servidor Web. Aquí es más importante la calidad y de ahí el dominio del servidor de Apache sobre un sistema operativo tipo Unix, aunque sea un software de dominio público [NET99]. Muchas compañías dicen no usar software público porque no tiene soporte. Sin embargo, la mayoría de los productos de PCs, en particular Windows, tampoco tienen soporte. Windows NT tiene alrededor de 25 millones de líneas de código, lo que significa que se deben hacer más pruebas para tener los niveles de confiabilidad necesarios. Por otra parte, Windows NT está, supuestamente, certificado en el nivel de seguridad C2 para su uso en Internet. Sin embargo, un estudio hecho por Shake Communications Pty. Ltd. reveló 104 problemas, algunos de ellos muy serios, que lo hacen vulnerables a hackers [LEW98].

En el caso de software, suposiciones similares a las de los sistemas operativos fueron hechas: recursos caros y escasos. Actualmente los recursos son baratos y abundantes. Sin embargo, también es malo abusar de los recursos y escribir software que necesita mucha memoria o mucho espacio disponible en el disco. Esto es válido sólo cuando es realmente necesario, y la mayoría de las veces no lo es. Este es otro efecto colateral de no tener tiempo suficiente para diseñar software y producir para sacar nuevas versiones lo más pronto posible, porque así lo exige el mercado. Este abuso de la tecnología tiene un efecto dañino. Por ejemplo, si queremos hacer algo más rápido, la solución más usada es comprar un computador más rápido. Sin embargo, más barato y posiblemente más rápido es usar una mejor solución (mejor software, mejor ajuste de parámetros, mejor configuración de la red, etc.).

¿Inteligencia Artificial?


Quizás una de las áreas de la computación que más prometió y que menos avances ha logrado, es la inteligencia artificial. Ya sea en juegos como el ajedrez o procesamiento de lenguaje natural, los resultados muestran que buenas heurísticas o cajas negras cómo las redes neuronales tienen efectividad parcial. Sin embargo, aún se está muy lejos del Test de Turing. Me permito usar el ajedrez para exponer mis ideas. En Mayo de 1997, Gary Kasparov, el campeón mundial de ajedrez, fue derrotato por Deep Blue de IBM (Big Blue), el campeón de los programas de ajedrez. ¿Ha triunfado la máquina? Analizar este pseudo triunfo de la inteligencia artificial ayuda a poner en el tapete el abuso de términos como sistemas expertos o inteligentes. ¿No es inteligente un buen algoritmo? ¿Es la fuerza bruta inteligente?.

A comienzos de los 50, se predijo que en 20 años habrían programas que derrotarían al campeón mundial de ajedrez. Se ha necesitado más del doble de tiempo para que eso ocurra. ¿Son los programas de computación entonces inteligentes? No, Deep Blue no piensa como una persona (tampoco piensa, pero digamos que hace algo similar para poderlo comparar). Kasparov sabe qué líneas analizar y estudia en profundidad un número pequeño de movidas. Por otra parte, Deep Blue analiza millones de movimientoss y evalúa muchas posiciones, pero lo puede hacer más rápido. La diferencia fundamental es la intuición, la creatividad y la estrategia a largo plazo. Si Deep Blue tuviera la capacidad de evaluar posiciones como lo hace Kasparov, sería invencible. Sin embargo, Deep Blue evalúa una posición en base a heurísticas. Es decir, reglas que funcionan la mayor parte del tiempo, pero otras veces no.

Mientras más complejo sea el juego y mientras el objetivo sea a más largo plazo, más difícil será evaluar una posición dada. Por ejemplo, hace mucho tiempo que el mejor programa de damas es mejor que cualquier humano. ¿Por qué? Porque el número de posiciones en damas es mucho menor y sus reglas son más sencillas, pudiéndose posible evaluar todas las jugadas posibles. Por otra parte, en el juego oriental del Go, donde es necesario ir controlando el tablero poco a poco, sin saber hasta el final si muchas piezas están vivas o no, es más difícil es evaluar, porque la estrategia se plantea a largo plazo. En este caso, la intuición y la experiencia son mucho más importantes que la memoria (como en el Bridge) o la capacidad rápida de cálculo (como en las damas).

La primera lectura errada del triunfo de Deep Blue, es que puede parecer que el computador ha derrotado al hombre. En realidad, lo que ha pasado es que un grupo de expertos en computación y en ajedrez ha programado un computador de gran capacidad y ha conseguido derrotar al campeón mundial. Es decir, un grupo de personas que ha trabajado durante mucho tiempo, en particular analizando cómo derrotar al campeón, ha logrado más que la inteligencia y memoria de un sólo hombre. No me parece tan especial que un programa pueda derrotar a una persona, pues la confrontación no es justa. Deep Blue posee una gran cantidad de procesadores, se sabe más de un millón de partidas de memoria y puede evaluar 200 millones de posiciones por segundo. Un experimento interesante sería comprobar si con menos tiempo por partido, la capacidad de cálculo es menos relevante. ¿Podría Deep Blue derrotar a un grupo de grandes maestros? Lo dudo.

Por otra parte, hay factores ajenos a la inteligencia que afectan la concentración de un jugador de ajedrez. Según algunos ajedrecistas, Kasparov le tuvo mucho respeto a Deep Blue. Otros dicen que tomó muy en serio su papel de defensor de la humanidad, y que su derrota sería un hito en la historia. Por otra parte, Kasparov es un ser humano, con emociones, que necesita comer, beber y dormir, que siente la presión de saber que no puede influir psicológicamente en el adversario. Un adversario que no comete errores ni se cansa. Si recordamos el pasado, una de las razones de todas las defensas exitosas de su título, fue la mayor fortaleza psicológica de Kasparov.

El hombre se derrota a sí mismo todos los días. Kasparov fue derrotado en público. Sólo eso. Cuando un computador pueda leer un libro, entenderlo y explicarlo, ese será un día importante. Por otra parte, Deep Blue es un ejemplo de ingeniería de software, de un buen programa en un mundo con pocos de ellos. Un programa que ha sido mejorado en muchos años, que usa conocimiento de muchas fuentes y que ha tenido tiempo para evolucionar. Si usáramos la tecnología como lo hace Deep Blue, seguramente estaríamos en un mundo mejor.
 

Interfaces con Sentido Común


Por las limitaciones del MacIntosh original que no podía ejecutar dos aplicaciones simultáneamente para que su costo no fuera muy elevado (muy distinto a sus poderosos predecesores: Altos y Lisa), la metáfora de escritorio del MacIntosh no estuvo centrada en los documentos. Por lo tanto el usuario estaba forzado a seleccionar una aplicación y luego escoger un documento, en vez de seleccionar primero un documento y luego la aplicación a usar en ese documento. Esto que parece ser lo mismo, supondría una diferencia fundamental en el desarrollo de interfaces. Sólo desde hace algunos años es posible seleccionar un documento y ejecutar una aplicación predefinida o escogerla de un menú. Citando a Bruce Tognazzini, uno de los diseñadores del MacIntosh: Hemos aceptado que la única manera de crear o editar un documento es abrirlo desde el interior de una aplicación o herramienta. Esto es equivalente a introducir una casa entera dentro de un martillo antes de poder colgar un cuadro en una pared o como poner los dientes dentro del cepillo antes de poder lavarlos (del ensayo Nehru Jacket Computers en [TOG96]). A continuación analizamos distintas áreas de la ciencia de la computación, desde lo más básico.

Analicemos las interfaces actuales. La información que almacenamos está basada en una jerarquía de archivos y directorios en la que navegamos de padre a hijo y viceversa. Es decir, en una sola dimensión. Más aún, debemos recordar en qué lugar está y qué nombre le pusimos a cada archivo que creamos (sin incluir las limitaciones de largo, símbolos, o de no poder poner nombres iguales). Por otra parte, aunque la pantalla es un espacio bidimensional, la interfaz usa muy poco este hecho y tampoco aprende de cómo la usamos y en que orden hacemos las cosas. Por ejemplo, podemos mover un archivo a través de toda la pantalla para tirarlo a la basura y justo al final nuestro pulso nos falla. Resultado: dos iconos quedan uno encima del otro. ¡La interfaz podría haber inferido que lo que intentaba hacer era deshacerme del archivo!. En mi opinión, parte del éxito de Netscape y el modelo impuesto por HTML es, además de una interfaz muy simple, el tener una estructura de enlaces de sólo un nivel. Nuevos paradigmas de representación visual de conocimiento están ya apareciendo [GRE99].

La tecnología computacional que se usa debería ser transparente para el usuario. De hecho, ¿cuantos usuarios novatos sólo usan un directorio para poner todos los archivos que usan? El usuario no tiene para que saber que existen directorios o archivos. Además, no todo puede ser clasificado en directorios y archivos. Un archivo debería poder pertenecer a dos o más clasificaciones distintas y éstas podrían cambiar también en el tiempo. Cómo entendemos las cosas depende de nuestro contexto espacial y temporal. Nuestro alrededor no es estático, pero el computador sin necesidad nos fuerza a guardar nuestros documentos de una manera fija en el espacio y en el tiempo.

Pensémoslo bien. El computador debiera - y puede - nombrar y agrupar archivos y recuperarlos usando su contenido o los valores de algún atributo. Por ejemplo, poder decir: mostrar todas las cartas que estaba editando ayer; y obtener las primeras líneas de cada carta, escogiendo de ellas la que necesito. Otra suposición sin base es que necesitamos una interfaz común para todo el mundo. Las personas son distintas, piensan y trabajan de forma distinta. ¿Por qué no tenemos interfaces que se adaptan a cada usuario, que puedan ser personalizadas y que aprendan de la forma y el orden en que hacemos las cosas? Para facilitar la implementación de nuevas interfaces, debemos botar el pasado, y reemplazar los sistemas de archivos por datos organizados de manera más flexible y poderosa [BYJR99b]. Este es nuestro próximo tema.

Bases de Datos


Uno de los mayores problemas de las bases de datos actuales es la diversidad de modelos, aunque el relacional es predominante. Sin embargo, nuevas aplicaciones necesitan datos que no son tan estructurados y rígidos: multimedios, objetos jerárquicos, etc. Aunque existen modelos adecuados para estos tipos de datos, no existen herramientas que permitan integrar bien dos o más modelos. De hecho, los intentos de incorporar estas extensiones en el modelo relacional no han sido demasiado exitosos.

Si abandonamos las hipótesis del pasado, modelos más poderosos y flexibles pueden ser planteados. Un ejemplo son objetos centrados en atributos dinámicos [BYJR99b]. En este modelo los objetos tienen un número dinámico de atributos, cuyos valores tienen tipo y son también dinámicos. Este modelo puede ser considerado una extensión del modelo orientado a objetos donde no existen clases. Sin embargo, también se define un lenguaje de consulta poderoso que puede manejar conjuntos de objetos que cumplen condiciones arbitrarias en los atributos, incluyendo su no existencia o si tienen valor indefinido. Argumentos a favor de este modelo incluyen su simplicidad, flexibilidad y uniformidad; la eliminación de suposiciones respecto a estructuras de datos y su relación con objetos que contienen información; su facilidad de uso; el permitir múltiples vistas de la misma información a través de consultas; y el hecho de generalizar los sistemas jerárquicos de archivos.

Este modelo debiera simplificar la labor de usuarios, programadores y aplicaciones para trabajar con información. Este modelo es también útil en la Web, donde objetos pueden ser compartidos a través de agregar atributos específicos a cada uso de un objeto. Estos objetos pueden ser manipulados y transferidos en forma abierta usando XML.

Internet: Un Nuevo Medio de Comunicación


La principal comunicación en Internet, el correo electrónico, se basa en intercambio escrito. Esto tiene numerosas desventajas y ventajas, con diferentes consecuencias. Entre las ventajas podemos mencionar el no juzgar a una persona por una primera impresión que es visual, lo que permite muchas veces conocer mejor a esa persona. También muchas personas son menos tímidas al no tener el contacto visual y por ende son más auténticas. Sin embargo, estas mismas ventajas facilitan que personas ofendan a otras, que se escondan detrás del anonimato o que suplanten o fingan una personalidad, sexo o edad que no tienen. Hay que recordar que ya sea en papel o delante de un computador, uno puede escribir cualquier cosa sin ninguna presión social de educación o diplomacia. Un famoso chiste en Internet muestra un perro diciendole a otro: nadie sabe que soy un perro en Internet.

Internet es una comunidad nueva, que no posee las características típicas de las comunidades que conocemos. Por ejemplo, relaciones sociales se establecen entre personas que no se conocen físicamente y que probablemente nunca lo harán. El vocabulario de expresiones, gestos, tonos, movimientos de manos que usamos día a día esta ausente. La carencia de estos gestos hace más difícil saber si una frase es una broma o un insulto, si una frase es dicha con seguridad o en forma dubidativa, etc. La reputación de cada interlocutor es menos importante, porque muchas veces los nombres no son conocidos o no son reales. El anonimato, que muchas veces esconde lo peor de las personas, nunca fue tan fácil. Para poder convivir existen las reglas de etiqueta de Usenet o netiqueta [MAR95]. Aunque muchas de ellas pueden parecer obvias o de sentido común, muchas personas carecen de sentido común (¡tal vez este sentido debiera tener otro nombre!). El castigo más duro en Internet a personas que repetidamente infringen la netequita es el ostracismo. Es decir, la condena al aislamiento absoluto. Pese a la netiqueta hay muchos casos aún a resolver, por ejemplo cuanto debemos explicar del contexto en una conversación para que otros no tengan que preguntar, cuanto debemos contribuir en una discusión sin que otros se aburran, cuando dos personas debieran continuar una conversación en privado, cuando podemos gritar (es decir, escribir en mayúscula), como diferenciamos entre ser chistoso o vulgar (pese al uso de smiles), entre amistad o avances indebidos, como protegernos de ofensas, etc [SB99]. Otros problemas están en la privacidad de la información y tratar el correo electrónico tan privado como correo normal. También cometer plagio es más fácil, pues copiar algo de la Web, modificarlo un poco y cambiar el autor no cuesta mucho. Sin embargo, también la Web ayuda a descubrir más facilmente estos casos [DEN95,KOC99].

Tampoco podemos asumir una cultura común, ni siquiera para estar de acuerdo que constituye un comportamiento aceptable. Son más de 100 millones de personas de distinta nacionalidad, raza, religión, lengua nativa (aunque inglés es el lenguaje internacional), estudios, etc. Más de 100 países sin fronteras ni leyes comunes. El resultado es libertad, como en ninguna otra comunidad. Todos tenemos la misma voz, formando una democracia perfecta. Sin embargo, al mismo tiempo, no hay nada que impida el caos absoluto y no todos tienen las mismas oportunidades de acceso a ella.

Todo un universo nuevo aparece con el uso comercial de Internet. Por ejemplo, la propaganda indiscriminada es mal vista en Internet. Estos problemas no están resueltos, pero una parte importante de la solución es la existencia del consenso de que reglas de etiqueta son necesarias. Esto permite que Internet no sea un caos. Además es indispensable tenerlas para responder a políticos o moralistas que buscan legislar o censurar Internet con reglas mucho más fuertes. Esto mataría esta joven democracia, pues la libertad de expresión es el espíritu central del ciberespacio. Es la fuerza que mantiene viva y hace crecer a Internet. Pero al mismo tiempo es su mayor peligro.

Internet también provee nuevas expresiones artísticas. El uso de realidad virtual, animaciones, etc; permiten nuevas formas de diseño. Más alla de museos, exposiciones fotográficas o arte tradicional, aparecen nuevas maneras de crear y expresar. En particular, las páginas personales de Web son el mejor ejemplo. Ya existen millones de ellas y aumentan en forma vertiginosa. La calidad de ellas no sólo depende del contenido, sino también de la diagramación, las imágenes, etc. En este sentido las mejores páginas son las más vistas, como cuadros famosos en un museo. Pronto tendremos una jerarquía de popularidad de personas basada en números de visitantes en sus páginas personales, que posiblemente reflejen facetas o personalidades que nunca se descubrirían en un contacto cara a cara: un mundo alternativo virtual.

Por otra parte, los enlaces entre páginas, que en cierto modo son votos de confianza o sinónimo de intereses comunes, generan comunidades dentro de la Web. Existen ya varios miles de estas comunidades, las que pueden ser analizadas desde un punto de vista social, ya que evolucionan en el tiempo, creciendo o desapareciendo [KRRT99].
1   ...   5   6   7   8   9   10   11   12   ...   29

similar:

La definición de la informática educativa, parte de la definición de Informática que se entiende como la ciencia que realiza un tratamiento automático y iconLa Informática es la ciencia aplicada que abarca el estudio y aplicación...

La definición de la informática educativa, parte de la definición de Informática que se entiende como la ciencia que realiza un tratamiento automático y iconY a partir de ahí en los siguientes apartados se estudiaran los conceptos...

La definición de la informática educativa, parte de la definición de Informática que se entiende como la ciencia que realiza un tratamiento automático y iconPrograma de especializacion en administracion de la informatica educativa

La definición de la informática educativa, parte de la definición de Informática que se entiende como la ciencia que realiza un tratamiento automático y iconPrograma de especializacion en administracion de la informatica educativa

La definición de la informática educativa, parte de la definición de Informática que se entiende como la ciencia que realiza un tratamiento automático y iconInstitucion educativa ana josefa morales duque media tecnicacon enfasis...

La definición de la informática educativa, parte de la definición de Informática que se entiende como la ciencia que realiza un tratamiento automático y iconUtilizar los ambientes escolares como el laboratorio, sala de informática

La definición de la informática educativa, parte de la definición de Informática que se entiende como la ciencia que realiza un tratamiento automático y iconUna definición amplia de materiales cerámicos diría que son sólidos...

La definición de la informática educativa, parte de la definición de Informática que se entiende como la ciencia que realiza un tratamiento automático y iconUna introducción a la epistemología de la psicología
«La epistemología, o filosofía de la ciencia, es la rama de la filosofía que estudia la investigación científica y su producto, el...

La definición de la informática educativa, parte de la definición de Informática que se entiende como la ciencia que realiza un tratamiento automático y iconInformatica

La definición de la informática educativa, parte de la definición de Informática que se entiende como la ciencia que realiza un tratamiento automático y iconInformática forense


Medicina





Todos los derechos reservados. Copyright © 2015
contactos
med.se-todo.com