Extraído del estándar 729 del IEEE
El
término «software» fue usado por primera vez en este sentido por John
W. Tukey en 1957. En las ciencias de la computación y la ingeniería de
software, el software es toda la información procesada por los sistemas
informáticos: programas y datos. El concepto de leer diferentes
secuencias de instrucciones desde la memoria de un dispositivo para
controlar los cálculos fue introducido por Charles Babbage como parte de
su máquina diferencial. La teoría que forma la base de la mayor parte
del software moderno fue propuesta por vez primera por Alan Turing en su
ensayo de 1936, "Los números computables", con una aplicación al
problema de decisión. La palabra «software» se refiere al equipamiento lógico o soporte lógico de un computador digital, comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea específica, en contraposición a los componentes físicos del sistema (hardware).
Tales componentes lógicos incluyen, entre otros, aplicaciones informáticas tales como procesador de textos, que permite al usuario realizar todas las tareas concernientes a edición de textos; software de sistema, tal como un sistema operativo, el que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y el resto de las aplicaciones, también provee una interface ante el usuario.
Unidad 2
Hardware: dispositivos físicos del ordenador
Los datos: sistemas de representación
Las
magnitudes contiguas son las que pueden adoptar los infinitos valores
de un intervalo de números reales, tales como la longitud de un
segmento, velocidad, temperatura, intensidad de un sonido,etc. Las magnitudes discretas tienen naturaleza discontinua, tales como la longitud (número de sílabas) de una palbra, capacidad (número de pasajeros) de un vehículo, etc.
En relación con ambos tipos de magnitudes se concidera la información analógica, que es de naturaleza continua, pudiendo tomar infinitos valores; y la información digital, que es de naturaleza discreta y también puede tomar infinitos valores.
En una computadora la información es digital (discreta) y además es finita (podemos almacenar cierta cantidad de información). Las computadoras funcionan mediante señales eléctricas digitales binarias, por lo que la información reprecentada por dichas señales deberá codificarse mediante un sistema de representación digital binario. Así, los distintos símbolos que representan la información humana, letras y números, deberán convertirse a la representación binaria de la computadora.
La razón de ser un computador es el procesamiento de información. Para poder hablar con propiedad de este procesamiento, debemos definir unidades de medida que nos permitan cuantificar de algún modo la acción del computador sobre la información suministrada. Consideramos las siguientes:
- Bit (Binary Digit) es la cantidad de información que puede almacenarce en una variable bianria. Una variable binaria es la que puede tomar 2 valores estables: 0 ó 1, blaco o negro, si o no, etc.
- El byte es la cantidad de información que puede codificarse en 8 bits; representa por tanto 2 elevado a la 8 = 256 valores.
http://html.rincondelvago.com/sistemas-de-representacion_1.html