CICLO DE LA INFORMACIÓN - REPRESENTACIÓN


Como ya hemos visto hasta el momento, la informática se centra principalmente en el tratamiento o procesamiento de la información. Para poder manipular la información los ordenadores necesitan utilizar un sistema de representación que les permita realizar distintas operaciones sobre los datos, así como almacenarlos físicamente.

Los ordenadores son sistemas electrónicos formados por transistores cuyas líneas pueden estar en dos estados distintos: activas o inactivas. Eso significa que a pesar de que una línea eléctrica puede conducir un rango continuo de distintos voltajes, los sistemas electrónicos de un computador discretizan ese continuo y sólo consideran dos posibles estados, traduciéndose en unos y ceros. Esto quiere decir que los ordenadores utilizan sólo dos símbolos (“0” y “1”) para representar internamente cualquier tipo de información que se vaya a manipular, ya sean números, textos, imágenes o sonidos.



La información que se representa mediante la combinación de elementos que sólo admiten dos estados se denomina información binaria. Cada uno de los elementos de la información binaria recibe el nombre de bit (binary digit).


La codificación consiste en establecer unas reglas que definan una correspondencia entre cada elemento de información y la secuencia de bits que constituye su código.

                                   


Existen dos flujos de información en un computador digital:



Flujo de datos: Permite controlar las transferencias de archivos a dispositivos de almacenamiento o mediante aplicaciones conectadas a Internet. han de ser manipulados para producir los resultados.



Flujo de control: Se utiliza para describir el método en el que un dispositivo serie controla la cantidad de datos que se transmiten al mismo, expresa las manipulaciones a realizar en dichos datos.


Los datos pueden ser alfanuméricos:

Numéricos: números de tipo natural, entero o real.

Alfabéticos: letras del alfabeto. El flujo de control se compone de las órdenes que debe ejecutar el computador, y que reciben el nombre de códigos de instrucción.



1. SISTEMAS DE NUMERACIÓN:


A. POSICIONALES:


B. NO POSICIONALES:



2.SISTEMA DECIMAL.
3.SISTEMA BINARIO.
4.SISTEMA OCTAL.
5.SISTEMA HEXADECIMAL.

Si deseas obtener información más detallada acerca de cada uno de los sistemas de numeración, te invito a que visites y des clic en el siguiente link.


REPRESENTACIÓN INTERNA DE LA INFORMACIÓN:

Como hemos podido ver hasta el momento, la unidad mínima de información de un sistema digital es el bit (Binary Digit). Un bit es la cantidad mínima de información que puede almacenarse en un ordenador. En cualquier dispositivo digital o en la teoría de la información; co él podemos representar dos valores, como: verdadero o falso, abierto o cerrado, blanco o negro... Basta con asignar uno de esos valores al estado de «apagado» (0) y el otro al estado de «encendido» (1).




Cuando se almacena la información no se trabaja a nivel de bit, sino que se trabaja a nivel de carácter (letra, numero o signo de puntuación), que ocupa lo que se denomina un byte, que a su vez está compuesto de 8 bits. El ordenador trabaja con agrupaciones de bits fáciles de manipular y suelen ser múltiplos de 2, la base del mismo binario. Los tamaños más comunes son:
  • Octeto:, carácter o byte: Es la agrupación de 8 bits, el tamaño típico de información; con él se puede codificar el alfabeto completo (ASCII estándar).
  • Palabra: Tamaño de información manejada en paralelo por los componentes del sistema, con la memoria, los registros o los buses, Son comunes las palabras de 8, 32, 64, 128, 122 bits: 1 byte, 4,8,16,32 bytes. A mayor tamaño de palabra, mayor es la precisión y la potencia de cálculo del ordenador. 


REPRESENTACIÓN DE DATOS ALFABÉTICOS Y ALFANUMÉRICOS:


Se han diseñado diferentes secuencias de patrones de bits para representar símbolos de texto. A esta secuencia se le conoce como Código y al proceso de representar los símbolos se le llama codificación.

  • ASCII: Código Norteamericano de Estándares para Intercambio de Información (American Standard Code for Information Interchange). Este código utiliza siete bits para cada símbolo. Esto significa 128 (27) símbolos distintos que pueden definirse mediante este código ASCII extendido: Para hacer que el tamaño de cada patrón sea de 1 byte (8 bits), a los patrones de bits ASCII se les aumenta un cero mas a la izquierda. Cada patrón cabe fácilmente en un byte de memoria.

  • BCD: Decimal codificado en binario (Binary Coded Decimal), en realidad no es un código de E/S, sino una forma de codificar los símbolos numéricos del 0 al 9 que se emplean en varios códigos de E/S, entre los que figuran EBCDIC Y ASCII. BCD divide cada octeto en dos mitades o cuartetos, cada uno de los cuales almacena en binaria una cifra. Con este número es muy fácil convertir del binario al sistema decimal. 


  • EBCDIC: Código Extendido de Intercambio decimal codificado en binario desarrollado por IBM al principio de la era de las computadoras. Utiliza patrones de ocho bits, de manera que puede representar hasta 256 símbolos. Solo es utilizado en computadoras Mainframes de IBM.



  • Unicode: Ante la necesidad de un código de mayores capacidades, una coalición de fabricantes de hardware y software desarrollo un código que utiliza 16 bits y puede representar hasta 65 536 (216) símbolos. Diferentes seccione del código se asignan a los símbolos de distintos idiomas en el mundo.

        
  • ISO: La Organización Internacional para la Estandarización ha diseñado un código que utiliza patrones de 32 bits . Este código representa hasta 4 294 967 296 (232) símbolos, definitivamente lo suficiente para representar cualquier símbolo en el mundo actual.


No hay comentarios: