You are on page 1of 25

A6.

HUMBERTO ECO “APERTURA, INFORMACIÓN, COMUNICACIÓN”

LA TEORÍA DE LA INFORMACIÓN
La teoría de la información tiende a computar la cantidad de información contenida en determinado
mensaje.
La información es una cantidad sumada, algo que se añade a lo que ya se y se me presenta como
adquisición original. Para calcular la cantidad de información es necesario tener en cuenta que el
máximo de probabilidad de que ocurra un acontecimiento es 1 y el mínimo 0. La probabilidad
matemática de un acontecimiento, oscila entonces entre 1 y 0.
Para medir la disminución o le aumento de la cantidad de información, se recurre a un concepto
tomado de la termodinámica, la entropía (es una medida estadística).
La teoría de la información, al estudiar la transmisión de los mensajes, los entiende precisamente
como sistemas organizados, regidos por leyes de probabilidades convenidas, el desorden de este
modo es el peligro que está al acecho para destruir el mensaje mismo, y la entropía es su medida. La
entropía será así, la medida negativa del significado del mensaje. De esta forma, para que el mensaje
sea claro y no caiga en el desorden se recurre a la redundancia.
La información en cuanto a añadidura esta vinculada a la originalidad, a la no probabilidad. Cuanto
más ordenado y comprensible es un mensaje, más previsible resulta porque nos dice cosas que ya
sabemos, es más significativo. Ciertos elementos particulares del desorden aumentan la información
del lenguaje.
En el arte, por ejemplo es donde se manifiesta el hecho de información vs significado. Es en este
campo en donde la imprevisibilidad produce la fascinación. Al poner orden en el sistema y disminuir
la entropía, sabré mucho en cierto sentido y poco en otro.
Cuanto mayor es la información, más difícil es comunicarla, sin embargo, cuanto más claramente se
comunica un mensaje menos información se nos da.

TERMODINÁMICA
La termodinámica, por definirla de una manera muy simple, fija su atención en el interior de
los sistemas físicos, en los intercambios de energía en forma de calor que se llevan a cabo entre
un sistema y otro.
La entropía es el segundo principio de la termodinámica que puede definirse esquemáticamente
como el "progreso para la destrucción" o "desorden inherente a un sistema. Permite, mediante
cálculo, determinar la parte de la energía que no puede utilizarse para producir trabajo. Describe lo
irreversible de los sistemas termodinámicos. "No existe un proceso cuyo único resultado sea la
absorción de calor de una fuente y la conversión íntegra de este calor en trabajo", es así como la idea
de entropía se asocia a una idea de consumo.
En la teoría de la información, medir la cantidad de información significa medir un orden o un
desorden según el cual un mensaje dado esta organizado. El contenido de un mensaje viene dado por
su grado de organización, la información es medida en un orden, y en consecuencia, la medida del
desorden. Es decir, la entropía será lo opuesto a la información, o sea que la información de un
mensaje viene dada por su capacidad de organizarse según un orden particular, escapando a ese
desorden elemental al que los elementos naturales tienden.

A2. CHAPLIN. CONCEPTOS INTRODUCTORIOS A LA INFORMÁTICA PERSONA.


DANIEL VIDELA.

INFORMÁTICA
Informática es información automática, se trata de automatismos para procesar (guardar, cambiar,
crear, transmitir) datos de todo tipo.

1
INFORMACIÓN
La información es forma, estructura, conocimientos, datos, en alguna medida lo opuesto a entropía.
La información se mide en bits, cuando tiene más de un bit pasa a llamarse byte, que es igual a 8
bits.

HARD Y SOFT
Una computadora es una serie de mecanismos electrónicos o piezas mecánicas (lo hard o duro), las
piezas mecánicas necesarias para procesar información, y también un contenido, es decir, millones
de datos, de códigos, que representan información de nuestro interés o recetas para procesarla (soft),
es información destinada a ser ejecutada.
El Hard se puede dividir en elementos internos de la máquina y los periféricos, aquellos que se
conectan desde afuera del gabinete. Los componentes del hard, son:
- Microprocesador: ejecuta todas las acciones y cálculos matemáticos, controla en general la
computadora. Es la pieza fundamental y tiene una gran incidencia en la velocidad.
- Memoria RAM: Receptáculo provisorio de la información. Es el lugar de trabajo donde se opera
con los archivos. Su capacidad y velocidad son la clave del rendimiento.
- Disco rígido: Depósito mayor y permanente de información. Se guardan en él todos los archivos
(tanto programas como documentos). Al ejecutarse un programa este funciona copiándose a la
memoria y opera desde allí hasta que lo cerremos. Todas las aplicaciones se encuentran en el disco
hasta que manualmente las ejecutamos o activamos, pero existen otras que como el sistema
operativo, arrancan solas, se ejecutan automáticamente y permanecen residentes, es decir, en
memoria constante.
- Placa madre: placa de circuito principal, donde está el microprocesador y la memoria. Sobre ella se
conectan los demás elementos.
- Placa de video
- Placa de sonido
-Módem
-Lectora de DVD
Hay más, estos son los más importantes. Los externos serían:
- Monitor
- Mouse y teclado
-Micrófono
-Impresora
Etc.

PROGRAMAS Y DOCUMENTOS
Los programas son sinónimos de aplicaciones, archivos ejecutables o soft, y los documentos, textos,
fotos, sonidos, videos, etc. Los programas son necesarios para abrir y ver, modificar o crear
documentos. Tanto los programas como los documentos se guardan en el disco rígido. Con los
programas (los archivos ejecutables) ejecutamos, configuramos o instalamos los documentos. Estos
siempre permanecen inalterados, lo que se modifican son los documentos. Los programas sin
embargo, pueden ser configurados, es decir, cambiarle algunas de sus características. Las
extensiones típicas de los archivos ejecutables son: .EXE, .COM, etc. Tanto los programas como los
documentos son guardados en código binario (ceros y unos). En el caso de los documentos estos
dígitos representarán características (colores, letras y sonidos) mientras que en los programas
ejecutables, órdenes, acciones.
Existen programas fuentes o programas objeto, los típicos archivos .EXE que si se pueden ejecutar y
usar en los sist. Operativos comunes por estar constituido de código ejecutable.
A su vez, los programas pueden tener código abierto o cerrado. El primero tiene que ver con que los
programas fuente están a disposición del usuario y los protocolos son públicos, mientras que los
cerrados son de propietario y el código es reservado a su dueño.

2
Del lado de los documentos tenemos datos o sustantivos (texto, imagen, sonido), material pasivo,
estático, y del lado del código ejecutable verbos, códigos que representan órdenes o comandos que
desencadenan acciones, es dinámico y activo. Los documentos activos necesitan de su aplicación
específica para que ejecute el código que contenga.

ARCHIVOS Y DISCO
Una de las partes clave del hard es el disco, es el lugar donde se puede guardar todo tipo de
información, de manera permanente. La info. Se guarda organizada archivos, que son un conjunto de
info. Con un nombre, para poder identificarlos, se trata de tres o más letras luego de un punto final.
Algunos archivos serán documentos y otros programas.

SISTEMA OPERATIVO
Hay tres tipos de soft:
1- Aplicaciones: los programas que típicamente usamos.
Se comunican con el usuario mediante ventanas, el sistema operativo lo hace mediante el escritorio
y la barra de tareas. Las ventanas son por lo tanto, una interface, un nexo entre dos fases o elementos
distintos.
¿Qué problemas de seguridad implican las aplicaciones cliente servidor? ¿En qué tipo de
aplicaciones o servicios son preocupantes estos problemas?
El problema está en que algunos de los programas que ejecutamos en nuestros equipos son
servidores, que responden automáticamente a determinadas acciones de un cliente remoto, más allá
de las órdenes que nosotros le podemos indicar. Un ejemplo de esto es el MSN, que da la orden de
reproducir un sonido o mostrar un cartel cuando alguien se conecta, al mismo tiempo que se
entiende con sus clientes para avisarles del mismo modo cuando nosotros nos conectamos.
- Lenguajes de programación: es un lenguaje específico que utilizamos para poder controlar el
comportamiento de nuestra computadora. Este lenguaje es realizado por los programadores que
efectúan los programas. Son programas para hacer programas, para crear el resto del soft.
¿Cuáles son los distintos "tipos" o "niveles"?
Una aplicación puede ser “común” o monolítica: un solo elemento, en un solo lugar que realiza
todas las funciones para las que fue prevista. Las comunicaciones en su interior se realizan de
manera más o menos estructuras según lo decida el programador. O bien, una aplicación puede ser
dividida en dos secciones, a estas las llamamos aplicación cliente servidor. Cliente y servidor
trabajan en conjunto aunque separados físicamente, y prestan sus servicios al usuario como si se
tratara de un programa único. El cliente es el que ordena, el que pide y el servidor quién obedece, el
que entrega información. El usuario opera directamente sobre el cliente como un funcionamiento
manual, mientras que el servidor suele ser totalmente automático, sólo atiende al cliente. A su vez,
un servidor puede conectarse con múltiples clientes al mismo tiempo.
- Sistemas operativos: la base del sistema, como por ejemplo Windows.
Un sistema operativo es el que hace funcionar la máquina, la deja dispuesta para poder ejecutar las
aplicaciones que necesitemos. Es quien nos comunica con el ordenador, lo controla y prepara.
Permite instalar y controlar componentes externos como la impresora o los parlantes y puede
realizar varias cosas simultáneamente. Todo se representa mediante ventanas e interactuamos con
ellas mediante el mouse.
Las ventanas son la forma visual de presentarnos aplicaciones para que podamos usarlas. El sistema
realiza varias tareas al mismo tiempo dividiéndose internamente en máquinas virtuales, pero al haber
un solo monitor, existen las ventanas, cada una es un monitor virtual correspondiente a una tarea en
curso. Siempre una será la ventana activa.

ESQUEMA GENERAL
El sistema operativo no se comunica directamente con el hard, lo hace por medio de otra interface,
que en este caso se denomina BIOS y es un conjunto de códigos ejecutables en un soporte especial.

3
El sistema funciona en capas, donde cada una hace uso de la inferior y presta servicios a la superior.
De esta manera se posibilita compatibilidad.

6. USUARIO
5. Ventanas
4. Aplicaciones
3. Sist. Operativo
2. BIOS
1. Hard

REDES
Los sistemas informáticos se pueden conectar entre sí, esta interconexión puede realizarse punto a
punto, es decir, una línea que une dos extremos, unión limitada en su uso y vulnerable al corte, o en
red, es decir, ”todos con todos” pueden intercambiar información y recursos.
Los procesos de comunicación son invisibles para el usuario y siguen una seria de reglas, llamadas
protocolos. Un protocolo son reglas ya consensuadas para ser utilizadas como estándar en un
proceso, pueden implementarse mediante soft o hard para comunicarse. El protocolo dice como nos
comunicaremos, con que reglas. Hay abiertos y cerrados, según sus reglas sean públicas o
reservadas a quienes lo desarrollen. Un modelo abierto es el IP por ejemplo.
Existen también pequeñas redes llamadas LAN o redes de un área local.
Algunos de los componentes típicos de una red son:
- Routers: canalizan información por el mejor camino posible.
- Placa de red: elemento final colocado en los equipos individuales, ultima interface con la red.
Entre otros.

INTERNET
Debemos utilizar un soft especial para tener acceso a la red, como el internet Explorer, por ejemplo.
En la web circulan distintos tipos de archivos que se identifican por su dirección, que en general son
URL. Internet funciona en base a direcciones numéricas, las conocidas IP pero gracias al sistema de
nombres de dominio (DNS) podemos usar las direcciones literales URL más cómodas y recordables.

¿Por qué Internet es hoy mucho más grande que en sus inicios?
Internet es mucho más grande porque con la aparición del dominio com, el cual permite el
nacimiento y evolución de una faceta comercial, sumado a formas novedosas que permiten un
acceso más simple y de alta velocidad, la Internet tuvo un crecimiento vertiginoso. La aparición de
protocolos abiertos permite que un cliente pueda conectarse a una infinidad de servidores y
viceversa, lo cual ha provocado su creciente masividad. Ahora se ha transformado en un medio
masivo de comunicación, en vez de una red informática solamente.

DOCUMENTOS ACTIVOS
Entendemos por documento activo a aquellos archivos de datos que pueden ser de algún modo
ejecutables.
EJEMPLO: Un reloj nos da la información de la hora, pero podemos programarlo para que también
suene la alarma a determinada hora. Por ejemplo el correo electrónico, podemos leer la información,
pero también podemos programarlo para que se reenvíe a otra casilla, filtrarlo para que vaya
directamente a la papelera, entre otras cosas posibles.

DOCUMENTOS DISTRIBUIDOS
Un documento distribuido es un documento múltiple cuyos archivos están distribuidos
indistintamente en cualquier lugar de una red. Estos documentos solo existen de forma virtual, los

4
datos pueden estar en diferentes partes del planeta, nadie puede poseerlos realmente. De cierta forma
pueden ser indestructibles porque aunque uno lo destruya puede haber infinitas copias circulando a
las cuales no tenemos acceso. Pueden modificarse una y otra vez, carecen de fidelidad al original.
Presenta aspectos negativos relacionados con la disponibilidad, propiedad y control de la
información, no se sabe realmente donde está la información, son vulnerables a réplicas apócrifas y
a sufrir operaciones de control, selección y restricción. Esto último se encuentra claramente
invisibilizado por empresas e instituciones que se benefician con ello.
EJEMPLO: Es como el universo, que está conformado por distintos planetas, estrellas y satélites que
se encuentran en diferentes lugares, lejanos entre sí. No se puede plantear un dueño del universo, ni
guardarlo en un lugar. Aunque una estrella haya muerto hace miles de años, aún la podemos ver
como si existiera.

VIRUS
Son códigos ejecutables cuyas acciones no están documentadas o tienen propósitos dañinos. Son
pequeños conjuntos de código ejecutable que no tienen la capacidad de realizar acciones por sí
solos. Se insertan dentro de la cadena de órdenes que es un programa y logran que el mismo ejecute
sus acciones en vez o además de las previstas en la aplicación.

¿Qué es un virus de tipo "metamórfico"? ¿Y una puerta trasera?


Virus metamórfico son aquellos virus que poseen un mecanismo de mutación, lo que les permite
comportarse de manera distinta y de algún modo evadir su detección.
Los virus llamados puerta trasera se presentan como programas o códigos anexados que habilita
entradas al sistema (puertos) para que el autor pueda operar sobre nuestro equipo de manera remota
en una red.

¿Por qué es conveniente llamar a los virus informáticos "funciones no documentadas"?


Llamamos a los virus funciones no documentadas porque lo que hacen es ejecutar en nuestra
computadora acciones que no son conocidas, no son esperadas o tienen propósitos dañinos.

Explique la secuencia aproximadamente causal de implicancias de los contenidos o documentos de


banda ancha.
Implicancias: Ancho de banda necesario (cuanto más pesado es el contenido más ancho de banda se
necesita), recursos necesarios, capacidad comunicacional y masividad (espectacularidad de la
información), efectividad publicitaria (aproximación estética y perceptiva), costos de producción (punto
de vista económico), escasez de emisores y asimetría (ADSL).

A1A. BORGES “EL LIBRO DE LA ARENA”

El libro se llamaba el Libro de Arena porque ni el libro ni la arena tienen ni principio ni fin.
Prisionero del Libro, casi no me asomaba a la calle. Soñaba con el libro, comprendí que era
monstruoso, objeto de pesadilla, cosa que corrompía la realidad. Aproveché un descuido de los
empleados en la biblioteca nacional, para perder el Libro de arena en uno de los húmedos anaqueles.
Siento un poco de alivio.

Q 25. CALLETI:

“La Comunicación humana”


▪ La comunicación animal tiene similitudes y diferencias con la humana. En ambos casos, el
mensaje es conjunto de signos que indican objetos, y son comprendidos porque los signos

5
pertenecen a un código (sistema de convenciones). Pero, se diferencian en que las abejas no
dialogan, en que sólo el lenguaje humano funciona como metalenguaje (habla de otro lenguaje) y el
código humano es más complejo.
La comunicación puede pensarse como transmisión de información (emisor-receptor) o como
producción de significación (los receptores realizan una interpretación de lo que los elementos del
mensaje significan).
▪ Saussure, a través de la Semiología, se centró en los signos lingüísticos. Él diferenció la lengua
(parte social del lenguaje, es el código) y el habla (uso de la lengua). El habla individual del sistema
de convenciones, constituye la lengua. La lengua está formada por signos. Y el signo se compone
por un significado (la idea) y el significante (el sonido). No hay significado ni significante aislados
uno de otro, su relación es arbitraria.
La lengua es un sistema de valores, donde el valor de cada signo es el lugar que ocupa en relación a
los otros, cada signo es lo que los otros no son.
Los signos establecen relaciones sintagmáticas (cadena de palabras, donde cada signo se relaciona a
los otros) y paradigmáticas (cadenas asociativas con signos ausentes).
▪ Peirce, a través de la Semiótica, indaga en la relación del hombre con el mundo. Para él, un signo
es algo que está para alguien en lugar de otra cosa en algún aspecto o carácter; donde esa cosa tiene
que ser un signo. Para Peirce no hay otra forma de conocer el mundo fuera de los signos.
Para Peirce la experiencia humana se organiza en tres niveles: primeridad (el orden de las
cualidades), segundidad (el orden de la realidad) y terceridad (el orden de los signos).
Los signos que representan a su objeto por similaridad se llaman íconos (analogía). Cuando el
vínculo es por proximidad, indicando su objeto, se denominan índices. Y cuando la relación se
establece por convención, por hábito o ley, se habla de símbolos.
Vale decir que las relaciones se dan mezcladas, porque cada signo no establece una única relación
con su objeto.
▪ Hay distintas formas de comunicación: comunicación directa (incluye conversación interpersonal e
institucional) y mediada o mediática.
- La comunicación interpersonal se da en forma directa entre dos o más personas, participando los
cinco sentidos (participación perceptual. Los signos no verbales ofrecen elementos sobre la situación
comunicativa, el mensaje, etc.). Esta comunicación tiene interdependencia comunicativa, porque
cada mensaje es una respuesta al mensaje del otro.
- Una institución desarrolla la comunicación interna (entre las personas que la conforman, donde
cada una tiene un rol) y una comunicación con la sociedad de la que forma parte. En las
instituciones las normas de la comunicación están claramente reguladas y varían de acuerdo con los
roles.
- En la comunicación mediada se pone de relieve el papel mediador que tiene la tecnología en la
comunicación. Los productos de esta comunicación están hechos sobre soportes, e integran distintos
géneros, lo cual determina la combinación de los elementos significativos en cada medio.

“Estudios y teorías sobre los medios masivos”


▪ Los medios intervienen en nuestra información y formas de percibir y concebir el mundo.
La explosión de los medios masivos se dio en el siglo XX, algunos autores los criticaron y otros no.
Quienes celebraron su llegada creían que los medios ofrecerían a todos gran cantidad de
información, llevando así a la universalización de la cultura, permitiendo disminuir las diferencias
sociales y formar ciudadanos más responsables políticamente.
Quienes la criticaban, creían que los medios sólo iban a servir para entretener a la población, para
manipular su opinión sobre ciertos aspectos de la realidad, y creían también que podría degradar la
cultura, y producir “la muerte del arte”. También pensaban que dichos mensajes alentaban una
visión pasiva y acrítica del mundo, fomentando el consumismo y el conformismo, fortaleciendo las
desigualdades sociales.

6
▪ En EE.UU se desarrolló la Mass Communication Research, mientras que en Alemania se inició la
Escuela de Frankfurt (Teoría crítica). Las corrientes de Investigación de la comunicación de masas
consideraron los efectos de la comunicación en la conducta humana. Los integrantes de la escuela de
Frankfurt, en cambio, privilegiaban los problemas sociales por sobre los individuales.
- Mass Communication Research: fue impulsada por las universidades y se investigaba a pedido de
las instituciones públicas y privadas (partidos políticos, organismos militares y de defensa del
Gobierno, etc.), dando respuestas para actuar sobre la sociedad, para poder generas determinadas
actitudes en los individuos.
Esta escuela atravesó por tres etapas, predominando tres teorías:
1. Teoría de la aguja hipodérmica (`20): La propaganda resultó una gran arma de la Primera Guerra
Mundial, con el fin de tomar actitudes y opiniones favorables. También, la propaganda, fue utilizada
por movimientos obreros europeos y en la Revolución Rusa. Además, la propaganda iba usando
nuevos medios como la tv y la radio. En este contexto surgió la teoría hipodérmica, donde los
mensajes son recibidos de manera uniforme por el público y disparan reacciones inmediatas y
directas. Los mensajes eran una “inyección” frente a un cuerpo que reacciona. Creían que las
respuestas de los individuos eran automáticas e inmediatas; era un modelo de comunicación
simplista y lineal, con un receptor pasivo y manipulable. No se tenía en cuenta el contexto social
donde ocurra el proceso comunicativo, por eso la audiencia era considerada débil y manipulable por
los medios.
2. Teoría de la persuasión (´30): Un mensaje puede producir efectos diferentes según la persona y las
circunstancias. Así comenzaron a investigarse los procesos psicológicos que intervienen en el
destinatario antes de que éste responda. Los receptores ponen en juego cuatro factores: el interés, la
exposición selectiva, la percepción selectiva y la memoria selectiva. Se considerada que teniendo en
cuenta las características psicológicas del público se podían manejar los efectos del mensaje.
3. Teoría de los efectos limitados (`40 y `50): Según el sociólogo Lazarsfeld, los efectos de los
mensajes están fuertemente condicionados también por el contexto social del individuo, en
particular, los grupos de pertenencia. Para Lazarsfeld, los amigos y familiares eran la influencia más
vigorosa, siendo los líderes de opinión. Para él, la comunicación masiva se produce en dos etapas,
donde primero atendemos al mensaje y luego apreciamos la información, marcadas por las opiniones
de personas con autoridad sobre el tema. Esta teoría considera que el proceso comunicacional está
siempre inscripto en una red de relaciones sociales.
4. Nuevas teorías (`60): Con la expansión de la tv, algunos investigadores se plantearon la idea de que
los medios masivos tenían efectos poderosos sobre las personas. A los investigadores les interesa la
influencia de los medios en la forma en que las personas perciben y representan la realidad. Por
ejemplo, la “hipótesis del establecimiento de agenda”, donde los medios nos dicen cuáles son los
acontecimientos sobre los que tenemos que preocuparnos.

- Escuela de Frankfurt: buscaban una teoría que pudiera explicar la situación que había sido
configurada sobre todo durante la Segunda Guerra. Uno de los conceptos clave de los estudios sobre
los medios masivos era el de la industria cultural. Aquí ellos observan los medios están
condicionando al hombre, con una unidireccionalidad; hay un mensaje que aplasta, como
instrumento de dominación.
▪ En los años posteriores, los nuevos análisis prestaron más atención en la recepción de los
mensajes. Tanto la Mass Communication Research como la Escuela de Frankfurt suponían un
receptor influenciable, donde el emisor tenía el poder para imponer un significado y el receptor
pasivamente lo aceptaba.
Sin embargo, se comenzó a notar el emisor y el receptor nunca compartían los mismos códigos, por
ello, el mensaje podría ser interpretado de distintas formas. Así, esta posición teórica afirma que el
receptor es activo, porque produce sentido al codificar un mensaje. Desde aquí se pueden ver dos
enfoques: las investigaciones norteamericanas sobre “usos y gratificaciones” (la sociedad es un
organismo formado por diferentes subsistemas, que permiten la integración social) y los Estudios

7
culturales de origen inglés (el elemento decisivo de la vida social son las tensiones y contradicciones
que se dan en su interior)
- Corriente de “usos y gratificaciones”: Se preocupaban por el uso que el público daba a los
mensajes masivos, dependiendo del uso que hacía el receptor y de las gratificaciones obtenidas,
donde los individuos eran entonces usuarios activos. Hay cinco clases de necesidades que los
medios pueden llegar a satisfacer: las necesidades cognitivas, las afectivas y estéticas, las de
integración personal e integración social, y las necesidades de evasión. Además, las diferentes
modalidades de interpretación varían según grupos sociales a los cuales pertenece el público.
- Los estudios culturales (`50 Inglaterra): reflexionaron sobre el consumo de los productos de la
radio, el cine y la televisión, porque creían que éstos constituían un factor importante en la vida
cotidiana de los sectores populares. Creían que las diferentes formas de interpretación no dependen
sólo de características psicológicas, sino también de la ubicación de éstos en la sociedad. De aquí
por ejemplo que se pensara que para explicar fenómenos culturales bastara con analizar las
relaciones de producción (económico-sociales). La cultura entendida como un conjunto de acciones
de los miembros en una sociedad que tienen un significado, la cultura como un espacio de lucha
permanente entre los q tienen poder y los que no lo tienen.

“La información en los medios”


▪ Los medios masivos de comunicación convierten en noticia aquellos acontecimientos que
consideran novedosos. La noticia debe ser veraz (hechos reales), oportuna (realidad inmediata) y
objetiva.
Un hecho se convierte en noticia cuando alguien lo capta, lo registra de determinada manera y lo
difunde. Los medios representan la realidad, convierten los hechos en noticias que despiertan la
atención del público.
▪ Además de informar, los medios le indican al público sobre qué temas pensar, es decir, establecen
una agenda temática, dependiendo de los intereses de los propietarios de los medios informativos, la
competencia con otros medios, la moda, el tiempo, etc.
▪ La transmisión de imágenes aumenta la credibilidad de la información, pero, la tv está lejos de ser
un espejo de la realidad, ya que se produce un efecto de espectacularización de las noticias.
▪ Cuando el público se enteraba de la noticia al término de la lectura, se hablaba de un formato de
redacción de pirámide normal (hechos de importancia creciente + desenlace). En la actualidad se
utiliza el modelo de pirámide invertida, donde la información va desde los datos de mayor
importancia hacia lo de menos (desenlace + hechos de importancia creciente + detalles interesantes
+ pormenores). Este modelo ofrece al lector un texto ágil, leyendo el primer párrafo puede entender
qué sucedió.
▪ El nuevo periodismo (NP), crea un nuevo género: la no ficción, ubicado entre la realidad del
periodismo y la ficción de la literatura, por ejemplo un título, que otorga continuidad espacio-
temporal.
▪ Anclaje y relevo: Barthes vincula las relaciones que se producen entre texto e imagen. El mensaje
lingüístico puede cumplir dos funciones con respeto a la imagen: anclaje y relevo. El anclaje
restringe la multiplicidad de sentidos de esa imagen, ancla alguno de los sentidos de la imagen,
ejemplo, en las fotografías de prensa y publicidad; el texto fija el sentido de la imagen, casi todo lo
que expresa el texto ya “está dicho” en la imagen. El relevo, en vez de anclar el texto, agrega algo
distinto que no está en la imagen, fija algo que ya estaba latente, por ejemplo una fecha de una foto;
es decir, el texto no duplica información que ya está presente en la imagen, sino que le agrega nueva
información.

¿Que es lo más relevante del concepto de simetría/asimetría en comunicación?


Lo simétrico son el correo, el chat, el aula, foros o grupos de discusión, actividad del usuario quien
debe ir hacia el medio o no recibe información. Lo asimétrico son los boletines, la Tv, el cine.
Simetría: causa/efecto, el diálogo se fomenta si es real, fácil escuchar pero difícil decir (Negroponte).

8
B6. IGNACIO RAMONET “COMUNICACIÓN CONTRA INFORMACIÓN”

La irrupción del multimedia causó una gran revolución. La articulación del televisor, el ordenador y
el teléfono, ha creado una nueva máquina de comunicar, interactiva y basada en las posibilidad del
tratamiento digital de la información.
El campo de la comunicación ha sido transformado en los últimos años, ya que se están fusionando
el cable, la telefónica, la informática, la publicidad, el video y el cine. Algunos sueñan con un
mercado perfecto de la información y la comunicación, totalmente integrado gracias a las redes
electrónicas y satélites. Un ejemplo del futuro comunicacional es Internet, una red mundial de
microordenadores que dialogan entre ellos gracias a la generalización de los módems.
La prensa escrita tampoco está a salvo en este proceso ambicioso. Muchos de los grandes periódicos
pertenecen ya a megagrupos de comunicación.
En el gran esquema industrial concebido por los patronos de las empresas de entretenimiento, puede
constatarse ya que la información se considera antes que nada como una mercancía, y en esta
convergencia de los medios sólo se intenta buscar el provecho económico.
La sobreinformación no significa siempre buena información. Ramonet toma dos ejemplos
mediáticos en los medios de comunicación, la muerte de Lady Di, y la relación del presidente
Clinton con una becaria Mónica Lewinsky. Se produce una lucha intenta entre la prensa escrita y la
televisión, siendo capaz de publicar cualquier cosa para lograr la mayor audiencia o lectores.
La prensa escrita buscaba su revancha desde los tiempos de la guerra del Golfo, que significó el
triunfo, el apogeo y el cenit de una información televisada basada en la potencia de la imagen. La
televisión logra incursionar en nuevos territorios informativos, como la vida de las personalidades
públicas y los escándalos ligados a la corrupción y a negocios: lo que toma el nombre de periodismo
de revelación (no de investigación).
En el caso de Clinton, la rivalidad entre prensa escrita-televisión aumentó. Como no había testigos,
imágenes reales acerca del asunto la televisión quedó rezagada, en cambio la prensa escrita empezó
a publicar notas de testigos anónimos, de informantes que no daban la cara, y los periódicos
empezaron a publicar todo lo que se les ocurría.
Cuanto más hablan los medios de comunicación de un tema, más se persuaden colectivamente de
que se tema es indispensable, central, capital y que hay que cubrirlo mejor, consagrándole mas
tiempo, más medios, más periodistas. Los medios de comunicación se autoestimulan, se
sobreexcitan unos a otros, multiplican la emulación y se dejan arrastrar, provocando desde una
sobreinformación hasta nauseas.
La comunicación juega con el mimetismo mediático y con la hiper-emoción del espectador. El
mimetismo es la fiebre que se apodera de los medios, y los impulsa, con la m{as absoluta urgencia, a
precipitarse para cubrir un acontecimiento. En la hiper-emoción se dice: “si la emoción que Ud.
siente viendo el telediario es verdadera, la información es verdadera”. Este chantaje por la emoción
se ha unido a la otra idea extendida por la información televisada: basta ver para comprender. Y todo
eso ha venido a acreditar la idea de que la información, no importa de qué se trate, siempre es
simplificable, reductible, convertible en espectáculo de masas, divisible en un cierto número de
segmentos-emociones. Esta concepción de la información rechaza cada vez más el análisis y
favorece la producción de sensaciones.
Cada medio (escrito, hablado, televisada), a partir de su posición, se siente en la obligación de tratar
los asuntos en beneficio de su público.
La prensa escrita está en crisis. ¿Por qué? En primer lugar, la misma idea de la información ha
mutado. Hasta hace poco informar era proporcionar no sólo la descripción precisa de un hecho, sino
también aportar un conjunto de parámetros contextuales que permitieran al lector comprender su
significado profundo (responder a cuestiones básicas, ¿Quién ha hecho qué?; ¿con qué medios?,
¿dónde?, ¿por qué?, ¿qué consecuencias?

9
Todo esto ha cambiado bajo la influencia de la televisión que hoy ocupa el primero lugar en los
medios. A finales de los 80, la televisión era primero en materia de diversión y ocio, pero se empezó
a convertir el primero en información a partir de los telediarios. ¿Cuál es la actualidad hoy?, lo que
la televisión dice, eso es la actualidad.
Ramonet dice que se produce una confusión respecto a la verdad, ¿cómo se podría definirse la
verdad? Hoy la verdad se define en el momento en que la prensa, la radio y la televisión dicen
los mimos respecto a un acontecimiento. Sin embargo, todos los medios pueden decir lo mismo,
sin que sea verdad.
Todo esto plantea la cuestión de la objetividad y los criterios que determinan la veracidad de los
hechos. La búsqueda de objetividad es la propia base del oficio de periodista. La base es que permite
al lector poder diferenciar bien los hechos establecidos en principio de las opiniones.

Discurso de propaganda: es un discurso que intenta o bien construir hechos o bien ocultarlos. Se
podría decir que es un tipo de discurso de censura.
Discurso de censura: es un discurso que suprime, amputa, prohíbe un cierto un numero de
aspectos, o el conjunto de los hechos, ocultarlos, esconderlos.
Ramonet, piensa que en esta sociedad política, la censura está desapareciendo (excepto si fuese una
dictadura). Ya no se prohíbe a los periodistas a decir lo que quieran. La censura hoy funciona de
manera inversa. Funciona por demasía, por acumulación, por asfixia. La información se
oculta porque hay demasiada para consumir, y por tanto, no se percibe la que falta.
El poder es el control de la información, es el control de la circulación de la comunicación.

Ser periodista hoy:


Ramonet dice que los periodistas están en vías de extinción.
La información se caracteriza hoy por tres aspectos.
1- durante siglos la información era escasa, hoy superabundante.
2- La información tenía un ritmo relativamente lento, y hoy es extremadamente rápida. Instantaneidad.
3- La información no tiene valor en si misma en relación, con la verdad. La información antes que nada
es una mercancía. La mercancía está sometida a las leyes del mercado, de la oferta y la demanda.

Hoy, informar es hacer asistir a un acontecimiento, es decir mostrarlo. Se podría describir al


periodismo con la forma triangular: el acontecimiento, el mediador (periodista), y el ciudadano. Por
medio de la cámara, fotos, o reportaje, intentan poner al ciudadano directamente en contacto con el
acontecimiento.
Se está abriendo la idea de la autoinformación. Se basa en que la mejor manera de informarse es la
de ser testigo.
Hasta el momento tenemos tres signos en materia de comunicación: el texto escrito (sistema
tecnológico: edición, imprenta, libro, diario, tipografía, máquina de escribir). De la radio (radio, el
magnetófono, disco), y la imagen (produjo dibujos animados, cine, televisión, magnetoscopio). La
revolución digital hace que converjan de nuevo los sistemas de signos hacia un sistema único:
texto, sonido e imagen pueden ahora expresarse en bytes, es lo que se llama multimedia.
Ramonet identifica en este proceso a una revolución tecnológica.
Información y libertad:
¿En qué se convierte la relación con la libertad cuando la información es superabundante? Si tengo
más información, tengo más libertad. Cada vez que añado información, gano libertad.
Ante la carencia de imágenes sobre alguna situación, ciertas cadenas han intentado fabricarlas
artificialmente, produciendo falsos documentos. Gianni Minoli dijo después de una emisión falsa en
Italia: “quisimos mostrar cómo puede manipularse la información televisada. Hay que aprender a
desconfiar de la televisión y de las imágenes que se nos ofrecen”.

10
Las imágenes de agencia tienen que ser espectaculares e interesar al mayor número de
telespectadores. Tienden a poner énfasis en el aspecto exterior del acontecimiento, en la anécdota, el
escándalo y la acción, que en las ideas o en las explicaciones. Evitan la polémica y la controversia.
Teleprompter: conductor de telediario, considerado como un vendedor de noticias.

Historia de la credibilidad:
La información audiovisual pasó por tres fases históricas, y a cada una de ellas corresponde un tipo
de retórica de la credibilidad.
1- El noticiero cinematográfico de España, llamado No-Do, donde la credibilidad estaba apoyada en la
voz off de un anónimo que le daba sentido a las imágenes. Tenía una función casi divina de saberlo
todo.
2- El telediario, estilo hollywoodiense, con presentador único. Quien me informa tiene nombre y
apellido, pone su rostro, habla directamente a los ojos. Esta relación de confianza es la base de la
credibilidad.
3- En los informativos de tipo CNN, de información continua, la credibilidad se basa en la capacidad
tecnológica de conectarse en directo con el acontecimiento.

La información como mercancía:


En los tiempos del neoliberalismo triunfante, el sector de la información constituye un mercado en el
que todo se negocia y donde todo tiene un precio.
El paisaje audiovisual mundial va a experimentar profundas transformaciones provocadas por la
irrupción de la televisión digital, que permite el uso de un mismo canal para difundir ocho veces más
cadenas al mismo tiempo.
La definición libertad de expresión, es contrastada con una especie de libertad de expresión
comercial, presentada como un nuevo derecho humano.

A7. NEGROPONTE “EL ADN DE LA INFORMACIÓN, BITS Y ÁTOMOS”

BIT
Un bit es el elemento atómico más pequeño en la cadena del ADN de la información, que describe el
estado de algo: encendido o apagado, verdadero o falso, arriba o abajo. De este modo, un bit es 1 o
0. El bit es el elemento básico de la computación digital.
Cada vez más cosas se digitalizan, digitalizar consiste en tomar muestras de la señal de la misma, las
cuales pueden ser usadas para reproducir una réplica de apariencia exacta, a pesar de que el mundo
sea analógico. Se pueden digitalizar las fotografías, comenzando con 00000 y terminando en 11111,
y a su vez, se puede digitalizar distinto tipo de información como audio, video y datos a la vez (se
llama multimedia). Los bits se combinan sin esfuerzo e inclusive hay bits que controlan otros bits,
los cuales funcionan como índices de contenidos o una descripción de los datos.
La digitalización tiene muchas ventajas, como la compresión de datos y la corrección de errores. La
cantidad de bits utilizados tiene que ver con la calidad de la copia de lo que se quiere reproducir, por
lo que la economía de bits está limitada por el medio en que se almacenan y se pretenden ser
trasmitidos los archivos. La compresión es uno de los motivos por los cuales se ha digitalizado todo
muy rápidamente.

ANCHO DE BANDA

11
Es la capacidad de transmitir información a través de un canal determinado, la capacidad de enviar
más o menos bits por segundo.
El ancho de banda depende de un soporte de transmisión, como lo puede ser el cobre y los cables de
cobre, aunque tienen un canal de ancho de banda reducido o la fibra. La única ventaja del cobre es
su capacidad de transmitir energía, de manera tal que si se cortase la energía eléctrica, los teléfonos
por ejemplo, seguirían funcionando.

Q29. FONTS. TIPOGRAFÍA, UN POCO DE TEORÍA

La tipografía es el arte y la técnica de crear y componer tipos (modelo o diseño de una letra) para
comunicar un mensaje.
La fuente tipográfica es el conjunto de caracteres, símbolos y signos con características en común.
La familia tipográfica es un conjunto de tipos basado en una misma fuente, con algunas variaciones.
Los miembros se parecen entre sí pero tienen rasgos propios.

Q30. CRM. MARKETING

Según estudios realizados, se ha comprobado que el concepto de algún producto, más atractivo, es el
menos rentable. Para tratar de que los productos produzcan beneficios en lugar de pérdidas
comenzaron a realizarse tests de conceptos, el cual no es el mejor medio para garantizar
rentabilidad. Inclusive trató de insertarse a estos tests el valor psicológico, el cual determina que
nivel de concepto representa el nivel más alto de atractivo para el consumidor y por lo tanto, los
niveles más altos de probabilidad de compra. Es evidente que esto no es lo que la empresa necesita,
siendo lo importante, el concepto más rentable, no los productos y servicios más atractivos y de
mayor calidad, sino la diferencia entre rentabilidad e inversión.
Para esto, algunas empresas importantes comenzaron a buscar lo que sus clientes prefieren, en que
momento harán su siguiente compra, cuanto están dispuestos a gastar, etc., con datos más precisos y
estudios más rentables, introduciéndose de este modo el marketing en la era de la alta tecnología.
Esto lo consiguen manejando información sobre sus clientes, proceso que ocurre conforme a tres
paso:
1. desarrollar perfiles de los clientes a fin de identificar patrones d compra, actitudes, valores.
2. establecer info. De servicio para descubrir cuando y con cuanta frecuencia los clientes utilizan los
productos.
3. medir la satisfacción de los clientes para determinar cuáles son los aspectos del producto que más
valoran.
Esto se realiza a través de una base de datos sobre los clientes.

A 9. INTERNET, TÉCNICA Y CRÍTICA:

▪ Un protocolo es una convención, un conjunto de reglas definidas sobre cómo se debe realizar la
comunicación en un sistema. Hay protocolos cerrados o privados, donde sólo sus desarrolladores y
propietarios pueden leerlos o interpretarlos; y abiertos, que son accesibles, mayormente públicos.
Una red es un conjunto de ordenadores interconectados (por protocolos) que permite a los usuarios
intercambiar información y recursos. Internet es una gran “red de redes” basada en protocolos TCP e
IP; utiliza un sistema troncal de interconexión y una estructura arbolar de ramificaciones para la
conectividad, estableciéndose una organización de direcciones numéricas (IP) y de dominios.
▪ Funcionamiento esencial: La comunicación en internet responde a una estructura de red, donde
cada punto o nodo se comunica con otros. La información se remite separada en paquetes, que
viajan separados por la red y se juntan en su destino, volviendo a “armar” el mensaje original:
sistema de comunicación de paquetes.

12
Cada sub-red tiene un equipo que cumple con la función de puerta o gateway, comunicando la sub-
red con el resto de la internet; además, las gateway, junto a los router, se encargan de ir impulsando a
los mensajes en estos saltos; es decir, leen el destino del mensaje, verifican si el destinatario
pertenecen a su red, si es así lo ingresan y sino lo mandan a un router o gateway vecino, o sino
buscar rutas alternativas.
▪ Propiedad y tendencias: Cada sub-red es propiedad de una empresa. El resultado de la red es
comunicación global, por ende, cada uno debe dar libre paso ala información propia y ajena. La red
no es homogénea, su crecimiento es caótico y está condicionada por los intereses corporativos.
Además, se ha tendido a erradicar la gratitud, libertad de información, participación, etcétera;
conservándose la globalización, la innovación, la integración de sistemas y convergencia de medios,
etcétera.
▪ Servicios: Existen diferentes ámbitos dentro de la red. El más popular es WWW. Un servicio de
internet es la posibilidad, para el usuario, de tener actividades n la red de un género determinado. Se
trata de un conjunto de protocolos, redes, sistemas y subredes que permiten realizar transacciones de
información bajo pautas definidas. Se utilizan además protocolos como FTP, HTTP, NEWS, etc.
▪ Cliente servidor: una aplicación común se considera monolítica (un solo elemento realiza todas
las funciones para las que fue prevista, es múltiple, heterogénea y no normalizada); también puede
estar dividida en dos partes, cliente y servidor; ésta es más lenta y más costosa (la comunicación es
mediante mensajes según su protocolo estándar). El servidor (automático) es el que realiza el
trabajo pesado; el cliente el que ordena, el que pide y el servidor obedece, el que entrega
información. El usuario humano opera sobre el cliente (manual). Si protocolo entre el cliente y el
servidor es abierto (público) varios clientes de distinto origen interactúan con el mismo servidor.
En general los programas de usuario que permiten acceder a los servicios se denominan aplicaciones
cliente tal o cual servicio. El cliente responde a las órdenes manuales del usuario. El servidor acata
obediente a los pedidos del cliente. Para poder actuar automáticamente debe tener acceso a los
recursos del equipo donde se ejecuta. No todos los programas son aplicaciones cliente, muchas
aplicaciones son monolíticas.
▪ Capas: La red está estructurada en capas, donde cada una ofrece servicios ala superior(los usuarios
acceden al servicio) y hace usos de los que dispone la inferior; nosotros interactuamos con la
superior. En internet, la capa inferior es la “física”.
Entonces: el usuario utilizará una aplicación cliente que implemente el protocolo HTTP, la
aplicación se conecta simultáneamente son un servidor. Pero “realmente” la aplicación recurrirá la
capa inferior, la de transporte, para que el mensaje llegue a destino. El cliente no puede solo
mandarla información por la red (hacia abajo). En la capa siguiente, la de transporte, un proceso
implementando el protocolo TCP, toma el mensaje y lo divide en paquetes (o segmentos TCP). Los
numera, y los conecta virtualmente con un puerto (host) y así con la capa TCP del equipo receptor.
Cada capa, sus protocolos, realizan un sistema de división del trabajo, donde TCP realiza una
conexión virtual con la TCP del receptor.
La capa de transporte (TCP) manda los paquetes hacia abajo. Allí, en la capa Red, el protocolo IP
tomará esos paquetes y los volverá a empaquetar, y luego mandará los segmentos. En el equipo
destino, la capa física integrará los paquetes de IP, y luego, desempaquetándolos, los entregará a la
capa TCP, que unirá todos los paquetes y controlará que estén todos. Cuando llegan los paquetes a la
capa IP de un servidor gateway, éste determina si el destino de los mismos corresponden a alguna IP
de su propia red, y los dirige hacia adentro, o los envía de manera automática “a los saltos” hacia
otro servidor.
▪ Capa fenoménica: los servicios, son básicamente protocolos y sistemas que le dan curso.
Podemos considerar la existencia de una capa “virtual, donde suceden los acontecimientos
comunicaciones, y donde existen los representantes de los usuarios, sus seudónimos, nics, etcétera.
Es en esta capa donde están los sitios web, las casillas de correo electrónico, las salas de chat,
etcétera. Es la cara visible de internet. En la relación entre la capa virtual y las inferiores (la red),

13
influye la forma concreta física de la red, en la virtualidad que se presenta al usuario. Su relevancia
es que está organizada en dominios. Es un lugar único, identificable y múltiple a la vez.
Hay tres capas: la fenoménica arriba (virtual. Páginas, avatares, casillas), y la física (hard) abajo, y
todas las demás en una sola, un especie de interface (casi todo soft), entre medio de ambas.
▪ Conexión de usuario: una conexión es un enlace físico con el resto de la red, y puede ser
permanente o temporal. La permanente se usa para quipos servidores o subredes de empresas, con
un gran tráfico de información (DSL, cable módem, etc.); la no permanente, es mediante la línea
telefónica, vía un modem que trasforma información digital en audio (Dial up).
Casi todos los sistemas de conexión son asimétricos, mayor ancho de banda para bajar que para
subir información.
▪ Las direcciones: Las IP son las direcciones numéricas, se utilizan equivalentes con palabras que
son las URL y servidores traductores, los DNS. Por ejemplo:
http://www.ford.com.ar/public/ofertas/loros.html
Http:// indica el tipo de recuso de que se trata el archivo.
www.ford.com.ar, es el dominio, e incluye la denominación del servidor (www).
/public/ofertas/ es la dirección dentro del servidor, y loros.html es el archivo.
▪ Dominios: La capa virtual (fenoménica) de Internet está organizada en dominios. La red se divide
en varios dominios TLP, básicamente en: los genéricos o gTLD y los nacionales o nTLD. Los gTLD
(dominios top genéricos) corresponden a divisiones mundiales o globales, por ejemplo: .com,
.edu, .gov. Los nTLD (dominios top nacionales) corresponden a temas de naciones en particular y
son administrados por cada país, por ejemplo .ar, .br. Estas denominaciones pueden ser geográficas,
temáticas, de pertenencia de dominio o virtual y situación física concreta de información, en qué
servidor se encuentran los archivos.
▪ DNS: Los servidores DNS transforman las URL en IP. Guía telefónica de IP. Masifica el acceso a
internet.
- ¿Qué tres cosas es DNS?
Red, Servidor, Sistema y también protocolo.
Los DNS son servidores de dominio que conforman una sub-red de computadoras, dispersas en todo el
mundo dentro de Internet. El DNS primario funciona como dato de la dirección de IP de un equipo. Los
DNS tienen la información o saben dónde buscarla. Cada máquina en particular puede ser un DNS. La
red DNS esta junto con internet. Hay clientes DNS, servidores DNS y Zonas de autoridad.

▪ WWW: los sitios de la Word Wide Web son depósitos de información. Los sitios tienen hipertexto,
los protocolos lo transportan, los clientes lo interpretan y lo muestran.
El hipertexto es un texto con vínculos; actuando sobre un vínculo se salta a visualizar nueva
información.
Navegar es recorrer información en la web, es realizar pedidos en forma manual o automática,
mandar pequeñas cantidades de información para recibir más. El contenido de la web se asienta en
un lenguaje de marcas (tags, códigos), conocido como HMT; y los códigos son interpretados por el
soft adecuado.
¿Cuál es el origen conceptual de la codificación html de Internet?
La intención original de la web fue facilitar el acceso a información en red. El ancho de banda no era
como el de la actualidad, estos factores impulsaron y definieron el uso del hipertexto. El html es un
lenguaje de marcas o códigos que se pueden incorporar al texto además de las palabras propias del
mismo. Establecida una convención, un lenguaje común, cualquier soft puede implementarlo, para
producir textos o interpretarlos.
▪ WWW WWW WWW: el metatag, es un metalenguaje (habla sobre el lenguaje) que nos permite
etiquetar los componentes de un documento, categorizar. Esto facilita trabajar con los formatos de
manera independiente, y el categorizar información hace que sea más fácil de manipular.

14
El CRM (Customer relationship management) es optimizar la relación con el usuario, crear
información a medida. Herramientas de esto son los buscadores, metabuscadores, agentes, portales,
et.
El código activo es aquel que no sólo se muestra, sino que se ejecuta. Por ejemplo, Javascript,
ActiveX.
▪ Correo: el sistema es un conjunto de protocolos y la red de servidores correspondientes. Además
del costo ínfimo y la velocidad, una diferencia con el correo de papel, es que el email puede tener
destinatarios múltiples (CC es con copia, CCO, es con copia oculta, donde la lista de direcciones no
es visible para el destinatario).
La dirección se compone por una identificación del usuario, el y luego el dominio o empresa
proveedora de la cuenta.
Las cuentas pueden clasificarse en tres tipos: el primero tipo es el correo electrónico tradicional, ,
está concebido para que la casilla esté en un servidor en conexión permanente, de manera que en
cualquier momento alguien puede mandarnos un mensaje y éste sea recibido. Los mensajes se
guardan permanentemente en nuestro equipo, por lo tanto sin límites de espacio y con bajo riesgo de
seguridad y privacidad. Los costos son ínfimos. La única desventaja es que sólo podemos operar el
correo desde el quipo donde tenemos instalado el cliente de correo Estas son las cuentas provistas
por instituciones y empresas proveedoras de conectividad.
El segundo tipo, son las cuentas web. Son las empresas que ofrecen cuentas de correo tradicionales
pero disponen para su uso de sitios. La ventaja es que podemos acceder a ella desde cualquier
equipo, y sus aspectos negativos son que toda operación la debemos hacer estando conectados, son
más lentas y limitadas en espacio. Por ejemplo, las cuentas de Yahoo, Gmail.
El tercer tipo, son las de acceso IMAP, que acumula casi todos los aspectos negativos: los mensajes
permanecen en el servidor mayormente, hay que usarlo online, tiene velocidad limitada y espacio
limitado. Pueden operarse desde la web, pero mediante el protocolo IMAP, y su concepción es dejar
el correo en el servidor. Este es el caos de Hotmail.
▪ Listas, foros, chat, news: todo mensaje que un usuario envía a la dirección de una lista,
automáticamente es recibida por cada uno de los usuarios de la misma. Listas de correo: privadas y
de acceso público, de multipropósito y de temas específicos (con un tópico), con moderador, de
suscripción directa o por solicitud, mailing (unilateral), etc.
Uno puede ir a buscar la información (foro), o que la misma venga a uno (lista). En un caso el
sistema empuja (push) la información hacia nosotros (pasivos), nos la envía; en el otro, tenemos que
ir a buscarla (pull), tendiendo a ser sujetos activos. Hay dos tendencias marcadas: a la integración, a
juntar servicios en un único sistema (ej. Sistemas de mensajería instantánea: MSN, ICQ); y a la
gestión push, a enviarnos información.
La diferencia entre el chat y los foros radica en el tiempo: la sincronía en el primero y la diacronía
en el segundo. Además, en un caso la información es volátil, instantánea, y en el otro, factible de
consulta y revisión.
Las listas de distribución tienen tres direcciones: la de lista (los mensajes van a todos los miembros),
la de servidor (atiende una máquina, es por ej. Para suscribirse), y la de moderador (atienden una
persona, es para consultas).
▪ Software: es el código activo, es herramienta que condiciona la manipulación de la información.
Una problemática se software es la compatibilidad, donde debemos contar con la versión adecuada
de un códec. A esto se le suma la problemática de las actualizaciones online, donde hay una gran
dependencia de la actualización automática de una empresa. El ASP (Applicarion Service Provider),
se trata de alquilar aplicaciones y disponerlas de manera remota a pedido en vez de entregar
licencias de uso y soft en sí de manera más o menos permanente. Esto es ideal para las empresas
proveedoras, porque el producto sigue bajo el control de su propietario, el usuario sigue siendo
cliente activo y el lucro es seguro y a largo plazo, evitando la copia ilegal.
Es necesario educar al consumidor en una cultura de recursos en red, en vez de locales, una “cultura
online”.

15
▪ Comunicaciones y comunicación: Hay distintos tipos de información, y se clasifica según su peso
(los bits) Una escala de peso, de menor a mayor, sería: texto, imagen, sonido, video, 3D.
La velocidad de transferencia de datos es determinante en la fluidez de la comunicación.
La banda es el canal por el que se transporta la información (señal). El ancho de banda es el índice
de cuánta información se transporta por unidad de tiempo. El ancho de banda está determinado por
la frecuencia portadora (ondas electromagnéticas; con una modulación digital por ejemplo, la cual
transmite alta densidad de datos y comparte canales).
▪ Seguridad, privacidad y opinión: Si la información que manejamos en nuestros equipos no es de
alto valor, tenemos un gran aliado en la característica de inmensidad de tráfico que tiene la red, esto
nos da protección; “la forma más fácil de esconder un elefante es en una manada de elefantes”.
Algunas medidas de protección: en las LAN se usan los sistemas firewall, como aduana de control y
distribuidora de información entre internet y las máquinas de la red local.
En el caso de Java, ActiveX y Javascript, al implicar código activo, son peligrosas; lo correcto es
bloquear todo tipo de actividad de estos lenguajes.
Los spyware son programas intrusos dedicados a espirar nuestra actividad y remitir esa información
por la red para ser utilizada. Los adware son similares, exponiéndonos publicidad no solicitada en
nuestro propio equipo. Un programa de protección es “Microsoft AntiSpyware”.
En internet, nuestra huella digital es la IP; en general los servicios de conexión funcionan en base a
IP variable.
Los cookies son archivos de texto con datos que los sitios graban en nuestros sistemas.
Algunas amenazas en la red se dan en los puertos, que es por donde se conecta nuestro sistema con
el exterior. Lo indispensable es un firewall confiable y bien configurado, un antispyware no
necesariamente residente (ejecutado cada cierto tiempo) y un antivirus (puede obviarse). La mejor
medida de seguridad es tener clientes con automatismos bloqueados, aplicaciones con bloqueos y no
ejecutar archivos que no estemos seguros de su fuente.
Las aplicaciones residentes (se inician solas) ocupan espacio, crear fallas de seguridad y ocupar
recursos.
No sólo mediante código activo los sistemas informáticos nos pueden engañar. Un caso son los
trucos para tomar datos personales, o los “sitios falsos”. Con el CRM, donde se personaliza datos,
también hay una manipulación; es llamativo que casi no se hable del CRM.
El spam es el correo no solicitado, es correo con fines publicitarios, propagandísticos, etc. Los
sistemas antispam filtran estos mensajes.
▪ Con-vivencia: lo que distingue al spam de otro tipo de comunicación es el bajo costo de
masividad.
Con la publicidad, el problema se da cuando su carácter es encubierto, es la “publicidad no
tradicional”. Por lo general, los sistemas están inundados de esta información, sea genérica o con
CRM. Los “canales”, como buscadores o sitios de enlaces, nos promocionan información de manera
sutil.
La votación electrónica:
- Paso 1: ordenadores especiales, en reemplazo de las boletas de papel y las urnas: es más fácil que
de lugar al fraude, muy pocas personas pueden verificar los sistemas, es inseguro.
- Paso 2: los ordenadores y redes tradicionales como medio electoral para voto remoto: se pueden
establecer canales seguros, promover la firma electrónica, pero el problema es que el voto desde el
hogar no se sabe si es a solas, por ende nada nos protege del marketing político.
- Paso 3: los mismos sistemas de comunicación como soporte también de un sistema social y
tecnológico de “democracia electrónica” mas o menos permanente.
El arte: las redes crean un nuevo espectro de posibilidades, la obra distribuida y abierta, la
interactividad real, el control en manos del artista de las variables de interacción y acción. Hay
distintas reglas en juego, la posibilidad de red e inteligencia informática al servicio de la expresión
artística.

16
▪ Buscadores: en internet, éstos buscan en bases de datos y tomaba lo que nos entregan, listados de
enlaces a los sitios donde reside la información buscada. Hay dos tipos: buscadores manuales, de
árbol, de directorio, o índices temáticos (ejemplo: Yahoo), y motores de búsqueda o automáticos, o
araña (ejemplo: Google)
Los buscadores manuales construyen su base de datos manualmente. Personas ordenan y archivan
los sitios en un árbol temático. Son precisos, pero lentos a la hora de actualizarse.
Los motores de búsqueda, construyen bases, enviando a navegar a la red, cantidad de aplicaciones
totalmente automáticas, que por recorrer la web se las llama “arañas”. Como un cliente web, visitan
página a página, tomando de cada una la información relevante y mandándola a la base de datos del
buscador. Son más exhaustivos pero menos precisos.
También, además de estos dos buscadores, está el multibuscador, el metabuscador y agentes. El
metabuscador y el multibuscador se diferencian del buscador, en que no tienen su propia base de
datos, son un intermediario. Son un sitio en la web de internet con una interfase que nos permite
indicar términos a buscar. Los metabuscadores (reordenan y operan en consecuencia,
sobresignificando las respuestas), toman los múltiples listados de respuestas y los consolidan,
reordenando y eliminando duplicados. Así entregan una respuesta propia, suma de varios
buscadores.
Un agente es software, no una página web. Son programas instalados, es un ente autónomo que controla
sus propias acciones; se ejecuta de manera continua. Se encargan de facilitar la tarea de encontrar
información y también están al tanto de las novedades en la red relativos a nuestros intereses. Es
necesaria la conexión permanente o frecuente, los agentes son el sistema perfecto para CRM. Son
efectivos en el filtrado de la información.
Recomendaciones para los buscadores: NO, comilla (busca frase exacta), AND (la palabra debe
figurar), OR (tiene que contener o una u otra palabra), paréntesis (agrupan términos), site (limita la
búsqueda al dominio específico), filetype (restringe al tipo de archivo).
▪ Criptografía: Internet se puede utilizar con seguridad haciendo uso de sistemas criptográficos o
de cifrado, teniendo cuatro objetivos: privacidad (encriptar o cifrar), integridad (el mensaje no fue
leído ni alterado por alguien más), autenticidad (se usa la firma digital) y no rechazo (además de
estar seguros que el mensaje no fue leído ni modificado, además de estar seguros de quién es el
remitente, no se puede rechazar su autoría una vez emitido el mensaje)
Para encriptar se precisa una clave o llave. El sistema de clave privada o simétrico, utiliza una sola
clave, para encriptar y desencriptar, es rápido y simple y su principal objetivo es la privacidad. Para
que el destinatario pueda tener acceso es preciso darle una copia de la llave. El segundo objetivo es
la integridad, es decir, que el mensaje encriptado, además de no ser leído por alguien que no se el
destinatario, llegue con seguridad de no haber sido alterado. Para esto se utiliza el algoritmo llamado
has (identifica el documento y lo diferencia de otras versiones).
En el sistema asimétrico, se utilizan varias llaves o claves. Una de ellas es pública y la otra privad.
Para comunicarse dos personas, necesitan dos públicas para escribir y dos privadas para leer. Es un
sistema lento, pero más seguro que la clave única. Si las claves son suficientemente largas y el
código no tiene “trampas” el sistema es en la práctica inviolable.

¿Qué es la función hash? ¿En qué se diferencia de la compresión? ¿Para qué sirve?
La función hash es un algoritmo matemático, se aplica por ejemplo a un texto y luego se obtiene un
conjunto de información que no lo contiene (como la compresión,) pero si lo identifica. Se usa
comúnmente para asegurar la integridad e identificar afectivamente software remitido por red.

A 1B. “LA BIBLIOTECA DE BABEL” BORGES:

Se presenta la biblioteca universal, que admite múltiples lecturas y genera numerosas metáforas. En
la biblioteca están todos los libros posibles, en galerías hexagonales e idénticas- Hay dos axiomas:

17
existe desde la eternidad y los libros se componen por variaciones aleatorias de 25 signos. La
biblioteca es un sinónimo de universo, no tiene límites.

B2. HACKERS, COMO ENTRAR Y SALIR DE PUNTILLAS

Hackear consiste en una intrusión sigilosa dentro de un sistema informático, sin autorización.
El hacker auténtico no utiliza su talento para beneficio propio, sino que su fin es conseguir que la
información circule libremente. Por eso cuando consigue algo no lo guarda, sino que lo participa a
los demás. Son inteligentes, intensos, abstraídos e intelectualmente abiertos.
Sin embargo están los cracker que son los llamados “hackers destructivos”, los cuales penetran en
sistemas y ocasionan daños deliberadamente.
En los años 90 se dio la más grande y mejor organizada caza de hackers.
¿CÓMO LO HACEN?
Ingeniería social: Ganarse la confianza de alguna persona que, por trabajar en el entorno del
sistema, posee la información necesaria para abrirse la puerta de entrada al mismo.
Caballos de Troya: Programas que se introducen en el ordenador y, engañando al usuario consiguen
determinados datos de gran utilidad para el hacker.

Q15.ARTE DIGITAL. DIEG LEVIS

Si bien los primeros pasos de Internet datan de mediados de los años 60, su verdadero nacimiento y
expansión, está vinculada a partir de los 90 con la world wide web. En la red circulan distintas
aplicaciones vinculadas a la expresión artística, como net art, las cuales permiten al espectador
construir la obra, completarla, como un proceso abierto y dinámico. Sin embargo, las obras de net
art, rara vez alcanzan una calidad estética destacable. A pesar de esto, con la capacidad de la
informática de permitir crear, reproducir y transmitir sonidos, imágenes y textos bajo el manto
unificador de una misma codificación (código binario) y el carácter abierto de internet, se ha
fomentado el desarrollo de propuestas artísticas provenientes de distintos cambios, provocando una
evolución inevitable en los conceptos de las prácticas artísticas, el derecho de autor, la difusión y el
comercio. La progresiva desmaterialización de la obra es inminente.
La producción de arte con computadoras queda atrapada en la telaraña que teje la industria de la
cultura. En net art incapaz de entrar en el mercado de consumo masivo tampoco consigue integrarse
plenamente, salvo contadas excepciones, en el más restringido circuito del mundo del arte.

Q23. BAUDRILLARD “CULTURA Y SIMULACRO”

Hoy en día, la abstracción ya no es la del mapa, la del espejo o la del concepto. La simulación no
corresponde a un territorio, a una referencia, a una sustancia, sino que es la generación por los
modelos de algo real sin origen ni realidad: lo hiperreal. El territorio ya no precede al mapa ni le
sobrevive. En adelante será el mapa el que preceda al territorio –PRECESIÓN DE LOS
SIMULACROS- y el que lo engendre. Son los vestigios de lo real, no los del mapa, los que todavía
subsisten esparcidos por unos desiertos que ya no son los del imperio, sino nuestro desierto. El
propio desierto de lo real.

Q17. RODRIGO ALONSO “PRÓLOGO”

Hasta el advenimiento del capitalismo los autores estaban interesados en conectar el mundo físico
con el sensorial y el espiritual.El libro “La máquina al final de la era mecánica” reconstruye algunos
vínculos entre arte, ciencia y tecnología en el arte argentino. Reniega de la pureza científica, pero
también de la artística. El corte más profundo se ubica en los años de las dictaduras militares, que

18
trajo consecuencias sobre el mundo del arte, la universidad y la investigación. La dificultad para
establecer puentes entre los artistas actuales y sus predecesores en la articulación arte-ciencia, da
cuenta de los esfuerzos que todavía deben hacerse para reconstruir caminos cada vez más
necesarios. Riqueza de la producción actual. Las creaciones todavía no encuentran un lugar preciso
en la teoría artística. Hay que lidiar con producciones que no han sido ungidas con la estabilidad de
la historia, formular hipótesis con conceptos en construcción. Ciencia y arte comparten la pasión.

Q7. PROYECTO INDEC: ¿UNA GRAN POLICÍA EUROPEA?

Consiste en crear una red automatizada de vigilancia en toda Europa, con el fin de detectar
amenazas, comportamientos anormales o violentos, en el intercambio de datos e información. El
sistema se nutriría de imágenes captadas por las cámaras de videovigilancia instaladas en múltiples
espacios públicos. El proyecto también promete la construcción de agentes encargados de la
monitorización automática de páginas web, foros de discusión, etc.

Q6. REFLEXIONES SOBRE LOS MEDIOS EN LA RED

Las cabeceras digitales (como el buscador de google) comenzaron a ser pagas y los resultados
fueron mejores de los esperados, de manera tal que la gente pagaba por utilizar los recursos. Dice
que dentro de poco, hasta leer el diario va a ser pago y las personas lo van a pagar, no sabe bien
porque.

N50. S 1619, ESA LEY QUE INVENTÓ EL SPAM.

El spam ahora es legal, siempre y cuando el mensaje contenga una forma de ser removido. Se apela
a cierto decreto que justifica la invasión.

B21. TEXTO E HIPERTEXTO

TEXTUALIDAD
Según Barthes es un texto compuesto por un bloque de palabras (o de imágenes) unidos en múltiples
trayectos, designando una textualidad abierta, eternamente inacabada. Como abundan las redes,
ninguna puede imponerse sobre la otra y está basado en la infinidad.
Foucault concibe al texto en forma de redes y enlaces y dice que las fronteras de un libro nunca
están claramente definidas, ya que se encuentra atrapado en un sistema de referencias a otros libros,
otros textos, otras frases, etc. Es una red de referencias.

HIPERTEXTO
Según Nelson (años 60), es un texto electrónico una tecnología informática nueva. Una escritura no
secuencial, un texto que bifurca, que permite que el lector elija. Es una serie de bloques de texto
conectados entre sí por enlaces, de manera tal que se pueden conectar el discurso verbal a imágenes,
mapas, diagramas y sonido, como a otro fragmento verbal. Se expande así la noción de texto mas
allá de lo verbal, relacionando información verbal con no verbal. El lector experimenta una lectura
no lineal, o mejor dicho, multilineal.

19
¿Qué opinan centralmente U. Eco y otros autores del hipertexto en el apunte B21?
Umberto Eco resalta con su cita la importancia de la escritura sobre papel y como este tiene más valor o
predomina sobre el texto oral.
Raffaele Simone por otro lado, sostiene que hubo un retroceso evolutivo en la lectura, el conocimiento
está dominado por la cultura audiovisual, cambió la naturaleza de la escritura y la tipología de los textos.
Propone que ésta nueva forma de crear información desprecia el análisis y experiencia, todo está en
todo.
Fernando Savater alerta sobre la simplificación del lenguaje que utilizan los jóvenes vinculado a la
desaparición de la ortografía y de la sintaxis que caracteriza a los correos electrónicos. Sólo entienden
los textos muy simples.

N10. SPAM:

Con el spam los mensajes llegaron en menos tiempo, más cantidad, y menor costo. Se lo conoce
como basura de recepción, salvo que logremos bloquear su acceso a nosotros, o el acceso de quien la
envía. El correo electrónico nos brinda la primer oportunidad en la que cualquiera, pueda llegar a un
gran público. A la hora de impartirlo es preciso: tener respeto por el receptor, ser agradecido con éste
por el tiempo que invirtió en leer, tener respeto por la confianza del receptor, y por la proyección
posible de la comunicación generada.

¿Qué argumento es el que más preocupa al defensor del spam en el texto "N10"?
El plantea la distorsión que hay sobre el sentido de SPAM referido al correo electrónico. Se esparció la
condena a todo mensaje enviado a quien no lo solicitó. Hay vándalos que inventan cadenas de correo
jugando con la sensibilidad, la ambición y la credulidad de la gente. Así desvirtúan al correo electrónico
como herramienta de comunicación.

B22. INFORMACIÓN FIABLE:

Información fiable, es una alianza de Microsoft, Intel, IBM, HP y AMD que promueve un estándar
para un ordenador “más seguro”. Aporta una plataforma informática donde las aplicaciones no
pueden ser alteradas o modificadas, y se pueden comunicar con su fabricante y entre sí. Con TC será
difícil ejecutar software sin licencia, pero será más fácil alquilarlo. Una desventaja puede ser la
censura remota. TC será más barato que la utilización del propio software. Servirá también como
sistemas de pago, para implementar controles de acceso, etcétera. Es tecnología para el control de
los derechos digitales.

¿Cuál es el concepto distintivo fundamental que diferencia el paradigma de "informática fiable"


de otros intentos similares?
Conceptos distintivos fundamentales: Fiable significa “de acuerdo a lo que la Política de Seguridad
bajada del servidor de políticas diga”. Destrucción automática de documentos. Controles más sutiles. Se
puede usar para sistemas de pago. La profundidad y ámbito del control sobre medios será ampliamente
reforzado. La versión actual de Fritz tiene un componente de monitorización pasivo que almacena el
hash del estado de la máquina al arrancar. Protege los procesos de registro de las aplicaciones. No hará
que nada deje de funcionar de repente.

C1. FOUCAULT “EL PANÓPTICO”

Hacia fines del siglo XVIII, se habían promovido medidas cuando se declaraba una peste, las cuales
contaban en dividir las ciudades en secciones, establecer el poder en un intendente, que hubiera un

20
síndico que vigilara las calles, y que las personas se encerraran en sus casas. Había una inspección
constante, y a través de distintos puntos de vigilancia, el intendente lo controlaba todo. Los
individuos estaban controlados, y se realizaba un trabajo entre centro y periferia, ya que los
enfermos eran excluidos. Este sistema apelaba a las separaciones múltiples, a distribuciones
individualizantes, a una organización en profundidad de vigilancias y de los controles, a una
intensificación y una ramificación del poder; el leproso queda rechazado, en un exilio-clausura. El
exilio del leproso significaba una marca, un intento de comunidad pura; la detención de la peste, un
análisis repartido, una sociedad disciplinada. Tratar a los leprosos como apestados, proyectar los
desgloses de la disciplina sobre el espacio confuso del internamiento, trabajarlo con los métodos de
distribución analítica del poder, individualizar los excluidos, pero servirse de los procedimientos de
individualización para marcar exclusiones- esto es lo que se ha sido llevado a cabo regularmente por
el poder disciplinario desde los comienzos del siglo XIX: el asilo psiquiátrico, la penitenciaria, el
correccional, el establecimiento de educación vigilada, y por una parte los hospitales, de manera
general todas las instancias de control individual, funcionan de doble modo: el de la división binaria
y la marcación, y el de la asignación coercitiva, de la distribución diferencial. De un lado se apesta a
los leprosos, y del otro, se marca quién es el leproso. Siempre se marca al anormal.
El panóptico de Bentham es la figura arquitectónica de esto, una torre en el centro y un anillo que la
rodea. La construcción periférica se divide en celdas. En la torre hay un vigilante, y los individuos
están encerrados en las celdas. A plena luz del día, está la mirada del vigilante. El mayor efecto del
panóptico es inducir en el detenido un estado consciente y permanente de visibilidad que garantiza
el funcionamiento automático del poder, lo esencial es que se sepa vigilado. Bentham ha sentado el
principio de que el poder debía ser visible e inverificable. Visible porque el detenido siempre será
espiado, e inverificable porque no debe saber cuándo se lo mira, pero saber que siempre es mirado.
El panóptico es una máquina de disociar la pareja de ver/visto: en el anillo periférico, se es
totalmente visto, sin ver jamás; en la torre central, se ve todo, sin ser jamás visto. Este dispositivo
automatiza y desindivualiza el poder. El que está sometido a un campo de visibilidad, y que lo sabe,
reproduce por su cuenta las coacciones del poder, se convierte en el principio de su propio
sometimiento. El panóptico puede ser utilizado como máquina de hacer experiencias, de modificar
comportamiento, de encauzar o reeducar la conducta de los individuos. Es una manera de definir las
relaciones de poder con la vida cotidiana de los hombres, de organización jerarquiza, de disposición
de centros y de los canales de poder, etcétera.
Cualquier miembro de la sociedad, podrá comprobar cómo funcionan las escuelas, hospitales,
fábricas, prisiones, por ende no hay peligro que la máquina panóptica pueda generar tiranía., porque
el dispositivo estará democráticamente controlado.
El esquema panóptico está destinado a difundirse en el cuerpo social; se trata de volver más fuertes
las fuerzas sociales, aumentar la producción, desarrollar la economía, difundir la instrucción, elevar
la moral pública, etc. Una pregunta sobre esto, sería ¿cómo al aumentar sus fuerzas, podrá el poder
acrecentar las de la sociedad en lugar de confiscarlas o frenarlas? La solución del panóptico es que
el aumento productivo del poder no puede ser garantizado más que si de una parte tiene la
posibilidad de ejercerse de manera continua en los basamentos de la sociedad, hasta su partícula más
fina, y si, por otra parte, funciona al margen de esas formas repentinas, violentas, discontinuas, que
están vinculadas al ejercicio de la soberanía. El panoptismo es el principio general de una nueva
anatomía política cuyo objeto y fin no son la relación de soberanía, sino las relaciones de disciplina.

¿En qué diferencia conceptualmente Foucault el enfoque que se le dio a la peste del de la lepra?
Comunidad pura/ Sociedad disciplinada. Las instancias de control individual funcionan como
división binaria y la marcación (loco y no-loco, normal-anormal, etc). La división constante de lo
normal y lo anormal. Exilio del leproso, tratar al mismo como apestado. Todos los mecanismos de
poder, todavía en la actualidad se disponen en torno de lo anormal. En el Siglo XIX se aplicó al
espacio de la exclusión, cuyo habitante simbólico era el leproso la técnica de poder propia de
reticulado disciplinario.

21
¿Qué relación podemos establecer o inferir entre información, forma, formación y poder?
La información es forma, estructura, por oposición a lo informe u homogéneo. Es conocimiento o
datos. Se puede guardar en la memoria. Bits (unidad de información).
La forma implica información (bits). Formación: 1) dar forma a algo 2) En el término educativo,
cuanto más formo la máquina menos necesito formar /entrenar al operador. El poder tiene que ver
con la información, quien y cuanta se posee. En el sentido periodístico-datos, si se tiene mucha
información errada es peor que no tener información.
El panóptico es una máquina, cumple ciertas funciones, funciona de tal manera por la forma que
tiene (anillo periférico). El poder lo ejercen el síndico e intendente controlando y vigilando,
deteniéndose frente a las casas. La información se basa en que el síndico se informa del estado de
todos, si alguno no se asoma por la ventana pregunta el motivo.

C2. DELEUZE “POSDATA SOBRE LAS SOCIEDADES DE CONTROL”

Foucault situó las sociedades disciplinarias en los siglos XVIII y XIX, apogeo en el XX. Espacios
cerrados: la familia, la escuela, el cuartel, fábrica, hospital y la prisión. Concentrar, repartir en el
espacio, ordenar en el tiempo. Estamos en una crisis generalizada de todos los lugares de encierro.
Las sociedades de control son las que están reemplazando a las sociedades disciplinarias. No se
trata de temer o de esperar, sino de buscar nuevas armas.
Los diferentes aparatos de control son variaciones inseparables, los encierros son moldes, módulos
distintos. FABRICA: Punto de equilibrio más alto en la producción, más bajo el salario. En una
sociedad de control la empresa ha reemplazado a la fábrica. La fábrica constituía a los individuos en
cuerpos, con la ventaja de que el patrón vigilaba a cada elemento en la masa. En cambio la empresa
no cesa de introducir una rivalidad inexplicable como sana emulación. Así como la empresa
reemplaza a la fábrica, la formación permanente tiende a reemplazar a la escuela y la evaluación
continua al examen. En las sociedades de control nunca se termina nada.
Las sociedades disciplinarias tienen dos polos: la firma, que indica el individuo, y el número de
matrícula, que indica su posición en una masa. En las sociedades de control, lo esencial es la cifra
que es una contraseña. Los individuos se convierten en dividuos, y las masas, en muestras, datos,
mercados o bancos. Mutación del capitalismo del siglo XIX que es de concentración, producción y
propiedad. Ahora hay un capitalismo de superproducción, ya no es un capitalismo para la
producción sino para el producto. El marketing es ahora el instrumento del control social, el hombre
ya no es el hombre encerrado sino el hombre endeudado. Introducción de la “empresa” en todos los
niveles de la escolaridad. Instalación progresiva y dispersa de un nuevo régimen de dominación.

¿Encuentra algún segmento o formulación del texto de Deleuze, criticable por dudoso uso de
conceptos de ciencias duras en sociales?
Ciencias duras: cuestión matemática-científica.
Tiempo-espacio, geometría, binario-numérico, en órbita sobre un haz continuo, variable pendiente,
conjunto, suma, modulación.

Diferencia sociedad de control y sociedad de vigilancia:


Diferencia entre empresa y máquina:

22
A40 BESTIARIO DE LA SOCIEDAD DE LA INFORMACIÓN:

La autora intenta desenmascarar ciertos clichés:

1. “La ruta de la pobreza hacia el empoderamiento comienza con el click de un mouse”: el


intento de informatizar la pobreza no propone soluciones concretas; se habla de que las
computadoras fomentan el empoderamiento de las poblaciones marginales. Nos enfrentamos al
dilema de que ignorar la revolución de las comunicaciones y los cambios que trae aparejados en el
mundo del trabajo, las relaciones sociales, la educación y la libre distribución de conocimiento nos
dejaría aún más rezagados de las naciones del planeta. No se puede afirmar que el uso de TICs
elimine la exclusión, pero si es probable que su “no apropiación” la fomente.

2. “Las personas que no acceden a nuevas tecnologías de información y comunicación, para el


caso, computadoras e internet, están condenadas a ser analfabetos digitales”: la instalación de
infraestructura informática no soluciona el analfabetismo. La alfabetización informática real no es
aprender a usar una computadora, sino comprender el lenguaje cultural y comunicacional. Para la
autora, es preciso ver como riesgo al mundo informatizado a extremos, con sistemas informáticos en
todo el planeta, y una pequeña elite que escribe las leyes que controlan las computadoras, y éstas a
las personas que de ellas dependan para acceder a los servicios básicos, la educación, etcétera. Es
preciso también tomar medidas preventivas, en ese caos podría ser el software libre, donde cada
Nación soberana base la educación de su ciudadanía en una formación básica esencial para
comprender y participar activamente en la redacción de sus códigos/leyes y que las universidades
basen la educación de los profesionales de la informática exclusivamente en software libre.

3. “A mayor acceso de la información, más democracia”: La sobreabundancia de información,


hiperinformación, no necesariamente contribuye a una sociedad más democrática, más bien puede
tener efectos contrarios. La instalación de centros de acceso a internet sin que las personas se
apropien realmente de las nuevas tecnologías de información y comunicación no hace más que
fomentar el consumo de información y NTICS sin que eso necesariamente se traduzca a mayor
democratización. El uso de software privado no fomenta una real apropiación de las nuevas
tecnologías, porque me mantiene oculto el funcionamiento del sistema, entre otras cosas.

4. “Existen nuevos delitos que es necesario legislar y modificar el código penal para construir
una sociedad de la información más segura”: no existen cyberdelitos, sino delitos. La utilización
de nuevas tecnologías para secuestros y atentados es parte del cambio que estamos viviendo, pero
pretender instaurar un régimen de control sobre las comunicaciones de toda la ciudadanía en nombre
de la ciberseguridad es una violación a los derechos humanos. Según la ONU hay dos categorías de
delitos informáticos: el delito en sentido estricto, siendo la que atenta contra la seguridad de los
sistemas informáticos y los datos; y en sentido lato, siendo el delito relacionado con las
computadoras.

5. “Seguridad versus privacidad”: está instalada la idea de que para mayor seguridad, debemos
resignar nuestro derecho a la privacidad. Sin embargo, con ciertas medidas, se viola el derecho a la
privacidad, y se pone bajo sospecha y vigilancia a toda la ciudadanía, sin que haya una autorización
judicial. La vigilancia se realiza inclusive mediante cámaras de video. La seguridad no debería
oponerse a la privacidad, sino complementarla. Es preciso poseer una defensa de los derechos a la
privacidad y a la seguridad en forma equitativa y contar con la ciudadanía capacitada y en alerta
para resguardar sus derechos.

6. “Una copia más, un disco menos”, “Por cada copia pirata desaparece un artista”: La red
ataca al corazón de la industria cultural, al facilitar el derecho humano al libre acceso al

23
conocimiento y la cultura y todos los beneficios. En defensa de la apropiación privada del
conocimiento vamos camino a un sistema de control cada vez más estricto sobre la libre distribución
de conocimiento.

7. “En la jungla de Internet...sólo (nombre de ISP) te protege”: Hoy, los principales proveedores
de internet se hacen eco de los males de la jungla: el spam y el virus. Para frenar cúmulos de spam,
los proveedores de servicios de internet utilizar sistemas de filtrado automático que bloquean
mensajes que contienen determinadas palabras claves o remitentes definidos por el mismo
proveedores; así la empresa selecciona las comunicaciones que enviará a nuestras casillas de correo.
Detrás de los virus hay un gran negocio, donde el uso masivo de sistemas operativos no permeables
a los virus, terminaría con el negocio de éstas empresas. El usuario está obligado a tener una
confianza ciega frente al proveedor que por términos de licenciamiento priva al ciudadano del
derecho a conocer el funcionamiento de su computadora.

8. “La brecha digital se reduce con accedo a las nuevas tecnologías de información y
comunicación”: el acceso a infraestructura sirve para reducir la brecha, pero no es suficiente. Los
programas de conectividad no parecer ser efectivos si no se los acompaña de políticas educativas,
sanitarias y de comunicaciones para que las personas se apropien y hagan uso socialmente
significativo de las nuevas TICs. Sin una política general de inclusión, el cableado y la instalación
de TICs no garantiza la reducción de la brecha digital.

¿Cuál es nuestro rol en tanto comunicadores sociales frente a esto?


Hasta el día de hoy, se han dado errores como repetir la mayoría de los clichés antes descriptos, el
surgimiento de una forma de “luddismo” teórico y fuertemente crítico de la tecnología en sí, y
considerar a las tecnologías sólo como herramientas.
La lucha por la libertad y la democratización del conocimiento es una macrolucha a escala global
que debemos librar y debemos hacerlo con redes, tecnología y conocimiento. Pero esta lucha sólo se
puede luchar deshaciéndonos de los clichés y de los temores que nos genera este nuevo “idioma”. Es
la lucha por el control del conocimiento lo que nos hará libres o esclavos: una sociedad de
información o sociedades de conocimiento libre.

Q21. MUMFORD. MARÍA REYLES “A MANERA DE PRÓLOGO”

Ambiental: tendencia a cambiar. Entriopía: El medio ambiente tiende a deformar.


Masa crítica de lo tecnológico.
En este preámbulo, utilizando los datos aportados por Mumford, se intenta definir a grandes rasgos
el significado de la técnica desde el punto de vista de la interacción de la vida y del contorno.
Plano histórico
La invención de las primeras herramientas y utensilios señala el fin del protohombre.
Máquinas, aparatos y dispositivos: emergentes
Máquina: Fenómeno reciente, parte esencial de nuestra antigua herencia técnica. “Una máquina es
una combinación de cuerpos resistentes dispuestos en forma tal como para que, mediante ellos, las
fuerzas mecánicas de la naturaleza puedan ser obligadas a hacer trabajo acompañadas por ciertos
movimientos determinados”.
La herramienta se presta a la manipulación, la máquina a la acción automática. La diferencia entre
las herramientas y las máquinas consiste en el grado de automatismo que hayan alcanzado.
El hombre se encuentra dentro de un sistema de emergentes como dentro de una máquina
trituradora.

24
Diferencia entre las herramientas y las máquinas
Quantum de la técnica
Endocuerpo y exocuerpo
Diferencias entre las presiones históricas y ambientales

25

You might also like