martes, 17 de septiembre de 2013

Extraído del estándar 729 del IEEE
El término «software» fue usado por primera vez en este sentido por John W. Tukey en 1957. En las ciencias de la computación y la ingeniería de software, el software es toda la información procesada por los sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones desde la memoria de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por vez primera por Alan Turing en su ensayo de 1936, "Los números computables", con una aplicación al problema de decisión.
La palabra «software» se refiere al equipamiento lógico o soporte lógico de un computador digital, comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea específica, en contraposición a los componentes físicos del sistema (hardware).
Tales componentes lógicos incluyen, entre otros, aplicaciones informáticas tales como procesador de textos, que permite al usuario realizar todas las tareas concernientes a edición de textos; software de sistema, tal como un sistema operativo, el que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y el resto de las aplicaciones, también provee una interface ante el usuario.
Unidad 2
Hardware: dispositivos físicos del ordenador

Los datos: sistemas de representación
Las magnitudes contiguas son las que pueden adoptar los infinitos valores de un intervalo de números reales, tales como la longitud de un segmento, velocidad, temperatura, intensidad de un sonido,etc.
Las magnitudes discretas tienen naturaleza discontinua, tales como la longitud (número de sílabas) de una palbra, capacidad (número de pasajeros) de un vehículo, etc.
En relación con ambos tipos de magnitudes se concidera la información analógica, que es de naturaleza continua, pudiendo tomar infinitos valores; y la información digital, que es de naturaleza discreta y también puede tomar infinitos valores.
En una computadora la información es digital (discreta) y además es finita (podemos almacenar cierta cantidad de información). Las computadoras funcionan mediante señales eléctricas digitales binarias, por lo que la información reprecentada por dichas señales deberá codificarse mediante un sistema de representación digital binario. Así, los distintos símbolos que representan la información humana, letras y números, deberán convertirse a la representación binaria de la computadora.
La razón de ser un computador es el procesamiento de información. Para poder hablar con propiedad de este procesamiento, debemos definir unidades de medida que nos permitan cuantificar de algún modo la acción del computador sobre la información suministrada. Consideramos las siguientes:
  • Bit (Binary Digit) es la cantidad de información que puede almacenarce en una variable bianria. Una variable binaria es la que puede tomar 2 valores estables: 0 ó 1, blaco o negro, si o no, etc.
  • El byte es la cantidad de información que puede codificarse en 8 bits; representa por tanto 2 elevado a la 8 = 256 valores.