3. Tratamiento del sonido digital


Actividad 2.0

__________________________________________


Sonido digital. Los formatos y su captura.

Captura y digitalización del sonido:Gracias a la compresión de archivos podemos oír música y ver películas en computadoras, estéreos y dispositivos portátiles. Los distintos formatos de audio y video se actualizan día tras día paraofrecer, a esta generación devoradora de multimedia, opciones de entretenimiento de alta calidad en
diminutos archivos.
La compresión de archivos de sonido se hace por medio de algoritmos. Para lograr una reducción de un archivo se utiliza una técnica conocida como PNS (norma de percepción de ruido). Se considera de percepción porque la mayoría de los formatos de audio, como el MP3, aprovechan características del oído humano para diseñar la compresión de los algoritmos que dan forma a un archivo desonido. Existen ciertas frecuencias que ser humano no reconoce, y de la misma manera, hay ciertossonidos que escucha mejor.
Utilizando este tipo de variables, la compresión de sonido trabaja mediante la eliminación de ciertas partes de una canción (frecuencias imperceptibles) sin alterar de manera significativa la calidad de lo que escuchamos.
Si esta compresión se audio se realiza a un archivo de audio de manera adecuada, su tamaño se reduce de manera considerable, en un factor de 10 a 1 por lo menos.
Para guardar la información de cada uno de los archivos de sonido (pistas ó tracks) en un CD comercial se utiliza un formato de alta resolución sin comprimir.
Así el estándar de calidad de un CD comercial requiere de mucho espacio de almacenamiento, pues se necesita una gran cantidad de bit´s para reducir cada segundo de una canción. La misión de la compresión es reducir el número de bit´s tratando de conservar al máximo la fidelidad auditiva del
archivo original.
1.1.1. ELEMENTOS :a. Micrófono:son usados en diferentes aplicaciones como teléfonos, grabadoras,audífonos, producción de películas ingeniería de grabación de audio, en transmisión de radio y televisión, en grabación en computadoras, en VoIP,  captar el ultrasonido o el infrasonido, etc. Con respecto a los micrófonos que se conectan a las computadoras, se consideran dispositivos periféricos de entrada. El primer micrófono inventado, comercialmente práctico, fue el micrófono de
carbón hecho en octubre de 1876 por Thomas Edison. De todas maneras, anteriormente ya se habían inventado múltiples micrófonos más primitivos. Funcionamiento básico del micrófono un micrófono es un dispositivo hecho para capturar ondas en el aire, agua (hidrófono) o materiales duros, y traducirlas a señales eléctricas. El método más común es el que emplea una delgada membrana que vibra por el sonido y que produce una señal eléctrica proporcional.
b. Codificación a soporte digital:Consiste en la transcripción de señales analógicas en señales digitales, con el propósito de facilitar su procesamiento (codificación, compresión, etc.) y hacer la señal resultante (la digital) más inmune al ruido y otras interferencias a las que son más sensibles las señales analógicas .consiste
básicamente en realizar de forma periódica medidas de la amplitud (tensión) de una señal redondear sus valores a un conjunto finito de niveles preestablecidos de tensión (conocidos como niveles de cuantificación) y registrarlos como números enteros en cualquier tipo de memoria o soporte. La
conversión A/D también es conocida por el acrónimo inglés ADC (analogue to digital converter) En esta definición están patentes los cuatro procesos que intervienen en la conversión analógicadigital:
Muestreo:
el muestreo (en inglés, sampling) consiste en tomar muestras periódicas de la amplitud de onda. La velocidad con que se toma esta muestra, es decir, el número de muestras por segundo, es lo que se conoce como frecuencia de muestreo.
Retención (en inglés, hold):
las muestras tomadas han de ser retenidas (retención) por un circuito de retención (hold), el tiempo suficiente para permitir evaluar su nivel (cuantificación). Desde el punto de vista matemático este proceso no se contempla, ya que se trata de un recurso técnico debido a limitaciones prácticas, y carece, por tanto, de modelo matemático.
Cuantificación:
en el proceso de cuantificación se mide el nivel de voltaje de cada una de las muestras. Consiste en asignar un margen de valor de una señal analizada a un único nivel de salida. Incluso en su versión ideal, añade, como resultado, una señal indeseada a la señal de entrada: el ruido de cuantificación.
Codificación:
la codificación consiste en traducir los valores obtenidos durante la cuantificación al código binario. Hay que tener presente que el código binario es el más utilizado, pero también existen otros tipos de códigos que también son utilizados. Durante el muestreo y la retención, la señal aún es analógica, puesto que aún puede tomar cualquiervalor. No obstante, a partir de la cuantificación, cuando la señal ya toma valores finitos, la señal ya es digital. Los cuatro procesos tienen lugar en un conversor analógico-digital.
Ejemplo de digitalización: en ordenador o cualquier sistema de control basado en un microprocesador no puede interpretar señales analógicas, ya que sólo utiliza señales digitales. Es necesario traducir, o transformar en señales binarias, lo que se denomina proceso de digitalización o conversión de señales analógicas a
digitales.
En la gráfica inferior se observa una señal analógica, que para ser interpretada en un ordenador ha de modificarse mediante digitalización. Un medio simple es el muestreado o sampleado. Cada cierto tiempo se lee el valor de la señal analógica
c. Equipo reproductor digital:Equipos que reproducen cualquier formato digital es un dispositivo que almacena, organiza y reproduce archivos de audio digital. Comúnmente se le denomina reproductor de MP3, reproductor MP3, o simplemente MP3 Existen principalmente tres tipos de reproductores de audio digital:
Reproductores de CD MP3 :
Dispositivos que reproducen CD. A menudo, puede ser usados para reproducir CD de audio y CD de datos caseros que contienen MP3 u otros ficheros de audio digital.
Reproductores basados en Flash :
Éstos son dispositivos que almacenan ficheros de audio digital en memoria interna o externa, como tarjetas de memoria. Normalmente son dispositivos con poca capacidad de almacenamiento, típicamente entre 128MB y 64GB, que pueden ser a menudo ampliados con memoria adicional, son baratos y resistentes a golpes.
Reproductores basados en disco duro :
Dispositivos que leen ficheros de audio digital desde un disco duro. Éstos reproductores tienen capacidades de almacenamiento más grandes, desde 1,5GB a 180GB, dependiendo en la tecnología del disco duro, a contrapartida del flash son sensibles a los golpes o incluso la más mínima vibración bajo funcionamiento puede estropearlos. El iPod de Apple, el Creative Zen y el Commodore eVIC son ejemplos de populares reproductores basados en disco duro,

principales reproductores :
* Archos
* Commodore eVIC, de Commodore International
* Creative NOMAD/Creative Zen/MuVo, de Creative Technology
* Gigabeat, de Toshiba
* iAudio, de Cowon
* iPod, de Apple Inc.
* iriver
Sansa de Sandisk Corporation
* Q-Be
* Walkman/PlayStation Portable, de Sony
* Yepp, de Samsung
* Zune, de Microsoft
* Energy Sistem
* Sandisk
d. Altavoces:es un dispositivo utilizado para reproducir sonido desde un dispositivo electrónico. También es llamado altavoz, altoparlante, bocina, speaker, loudspeaker.Los altavoces convierten las ondas eléctricas en energía mecánica y esta se convierte en energía acústica. Más técnicamente, es un transductor electroacústico que convierte una señal eléctrica en sonido.
El altavoz se mueve de acuerdo a las variaciones de una señal eléctrica y causa ondas de sonido que se propagan por un medio, como el aire o el agua.
Características generales de los altavoces :
puede estar constituido de uno o más transductores (drivers o vías). Para reproducir correctamente un amplio rango de frecuencias; muchos parlantes emplean más de una vía. Cada vía reproduce diferentes rangos de frecuencias.
Esta división en vías (drivers), según su frecuencia, son llamados:
subwoofers: para muy bajas frecuencias
woofers: frecuencias bajas
mid-range: frecuencias medias
tweeters, HF o highs: altas frecuencias
supertweeters: para muy altas frecuencias

En los sistemas de altavoces de dos vías, no hay una vía para recuencias medias, por lo tanto la tarea de la reproducción de estas frecuencias recae en el woofer o en el tweeter.
Cuando se emplean múltiples vías en un sistema, se emplea un filtro llamado crossover o filtro de cruce, separa la señal de entrada
en diferentes rangos de frecuencias y los guía para la vía adecuado.
e. Grabador de sonido en el sistema operativo:Para reproducir un archivo de sonido elija Archivo ▸ Abrir. Seleccione un archivo de sonido en el
diálogo Abrir un archivo, después pulse Aceptar. El Grabador de sonido muestra la duración del
archivo en minutos y segundos debajo de la barra de progreso. Para reproducir el archivo, elija
Control ▸ Reproducir. El indicador de progreso se mueve a lo largo de la barra de progreso según se
va reproduciendo el archivo de sonido.
le permite grabar y reproducir archivos de sonido .flac, .oga (sonido OGG u .oga) y .wav.
Puede iniciar el Grabador de sonido de las siguientes formas:
Menú Aplicaciones
Elija Sonido y vídeo ▸ Grabador de sonido.
Línea de comandos
Ejecute el siguiente comando: gnome-sound-recorder
Se mostrará la siguiente ventana al iniciar el Grabador de sonido.

1.1.2. Características del sonido digital:

a. Frecuencias de muestreo.Calidad de sonido.
la tasa o frecuencia de muestreo La usamos cuando queremos transformar una señal analogica ( señal continua) en una señal digital(señal discreta). la frecuencia de muestreo es la cantidad de muestras que se tienen de una señal en una unidad de tiempo y se mide enHz(ciclos por segundo).
Frecuencia de muestreo en las tarjetas de sonido de PC:
Las primeras tarjetas de sonido de 8 bits eran capaces de reproducir a una frecuencia de 22KHz. Con la aparición de las tarjetas de 16 bits, esta frecuencia se elevó a su vez a 44,1KHz.Desde ese momento, la frecuencia de muestreo no ha variado, pues la frecuencia utilizada es más que suficiente para garantizar una gran calidad. Sin embargo, están empezando a aparecer en el mercado tarjetas de sonido con una capacidad de muestreo superior, 48KHZ y hasta 55,2KHz, como en el caso de la tarjeta Gravis Ultrasound; o 100KHz en tarjetas profesionales, aunque realmente la diferencia es inapreciable para el ser humano y la única utilidad de muestrear a una frecuencia mayor es tener un margen para evitar posibles bits defectuosos o para manipular la muestra
repetidas veces sin ver comprometida su calidad.Asi que si queremos modular una señal la maxima frecuencia a usar es de 44100 Hz en una tarjeta normal relativamente nueva me refiero a las PCI que tienen 16 bits y si su PC es un poquito antigua y su tarjeta de sonido es ISA entonces la maxima frecuencia seria 22Khz como maximo ya que solo son de 8 bits 9 De 40
b. Canales:
Como ya sabemos, el índice de refracción de una onda depende de la naturaleza del medio, así como de la densidad del medio. En concreto, para el sonido, cuanto mayor es la densidad de cierto fluido menor velocidad de propagación tiene (mayor índice de refracción). Nuestra conclusión sería que la gráfica anterior no sería estable: si la región azul oscuro es más densa que la que tiene pordebajo, tendería a hundirse, lo mismo que una piedra se hunde en el agua debido a que su densidad es mayor que la del agua (coloquialmente “porque pesa más”). Parece que hemos llegado a un punto muerto… pero hay una cosa que no he tenido en cuenta y es que no “es densidad todo lo que reluce”. En los océanos hay tres factores que afectan a la densidad: Temperatura, presión y salinidad. La temperatura y la salinidad afectan mucho a la densidad del agua, pero más la temperatura. Sin embargo, la presión casi no afecta a la densidad del agua. Esto es así porque el agua es un líquido, y tanto los líquidos como los sólidos son extremadamente poco compresibles: vamos, que para variar un poquito su densidad tienes que hacer presiones gigantescas.Ahora bien, resulta que la velocidad del sonido, debido a que es una onda mecánica, se ve bastanteafectada por la presión. Así, tenemos que la velocidad del sonido depende de la densidad (que a su vez depende de la temperatura y la salinidad) y de la presión. En concreto, cuanto mayor densidad,menor velocidad (mayor índice de refracción), pero cuanto mayor presión, mayor velocidad (menor índice de refracción)
A lo largo de la altura del océano conviven estos dos factores, pero cada uno tiene una influencia diferente según la altura a la que lo miremos. Así en superficie hay poca presión, pero la densidad es bastante baja por efecto de la temperatura (el agua superficial suele ser más cálida y salina). El resultado es el efecto de la densidad se impone al de la presión y el índice de refracción es pequeño. Después la densidad disminuye rápidamente en los primeros cientos de metros, pues el agua se enfría rápidamente con la profundidad. Pero en esta distancia la presión casi no ha crecido y por tanto su influencia no puede compensar la brusca variación debida a la temperatura. Por tanto, aquí encontramos una zona con un valor alto del índice de refracción comparado con el agua que tiene encima. Pero cuanto más bajamos, más efecto tiene la presión, mientras que la densidad se mantiene casi constante ya que la temperatura es casi constante a esas profundidades. El resultado es que el índice de refracción disminuye bastante. En la parte de la izquierda podemos ver una medida de la variación de la velocidad del sonido con la profundidad según diferentes factores. La Ct se refiere a lo que varía debido a la variación de la temperatura del agua. La Cp se refiere a lo que varía debido al aumento de la presión con la profundidad. La figura de la derecha muestra que pasa si se combinan ambas variaciones: Nos encontramos con una zona donde la velocidad del sonido (llamada C) es menor (índice de refracción mayor) que la de las zonas que tiene por encima y por debajo.

c. Tamaño de la muestra:
define el número de bits que se necesitan para grabar las amplitudes de los sonidos. Las tarjetas de sonido antiguas ofrecían tamaños de 8 bits, mientras que las actuales tienen un tamaño de muestra en 16 bits.
 Con 16 bits puede conseguirse un sonido igual al de los CD Audio, mientras que con 8 bits sólo podemos conseguir sonidos similares a los de la radio por lo que este tipo de tamaño de muestra sólo debes utilizarlo para grabar (o reproducir) voz pero no para sonido con calidad musical.


1.1.3. Cálculo del tamaño de un archivo de audio:

a. Fórmula para calcular el tamaño de un archivo de audio sin Comprimir:
La siguiente fórmula calcula el tamaño de un archivo de base de datos .dbf
(RECSIZE() * RECCOUNT()) + () DEL ENCABEZADO 1
donde: RECSIZE devuelve el número de bytes para cada registroRECCOUNT devuelve el número de registros en el archivo .dbf.
ENCABEZADO devuelve el tamaño del encabezado DBF. El encabezado incluye toda la  información acerca del archivo .dbf, incluidos los nombres de campo y los tamaños. Esta información puede ser muy útil cuando se intenta escribir rutinas de copia de seguridad

Formatos de audio:
a.wav:
son archivos que contienen información sonora codificada en forma binaria, es decir, mediante ceros y unos. Su nombre deriva del término en Inglés Wave que significa "onda" haciendo referencia a las ondas electromagnéticas constitutivas del sonido. Otro nombre que se les ha dado es "Wave audio format" o "formato de audio en forma de ondas" haciendo también alusión a lorecientemente mencionado.
Una de las características principales de los sonidos Wav es que no se encuentran comprimidos por lo cual ofrecen la reproducción de las canciones originales en la máxima calidad posible. Los titulares de la patente de este tipo de contenidos son las empresas Microsoft e IBM. Debido a que este tipo de fichero no se encuentra comprimido no son muy populares en Internet debido al gran tamaño que poseen. Habitualmente los encontramos dentro de un ordenador de escritorio o dentro de los sistemas operativos que poseen las computadoras. Por ejemplo, el sistema operativo Windows posee incorporado diversos sonidos wav para enriquecer al mismo.


b. MIDI

significa Interfaz Digital de Instrumentos Musicales. Es un lenguaje electrónico, por el cual se puede comunicar prototipos estándares. Muchas computadoras poseen un puerto externo MIDI que sirve para conectar instrumentos a ellas. El formato MIDI no funciona como un .MP3, WAV, .AU, o demás, no captura como un micrófono los sonidos, efectos, voces y demás sino que sólo se puede utilizar para música grabada en un sintetizador o en una placa de sonido. Entonces sólo escucharemos instrumentos y nunca voces. Los archivos MIDIS (.MID) se caracterizan por ocupar muy poco espacio, haciéndolos muy recomendables para ambientar con música instrumental ciertas páginas. La secuencia es grabada como una serie de números que aclaran el instrumento, la duración de la nota, su tono o timbre, etc. Un programa sabrá interpretar esa serie. Por esto los archivos midis ocupan tan poco. Además la calidad de sonido del MIDI no depende del archivo, sino de con qué programa se ejecuta. Seguramente con un programa escucharemos uno de estos archivos musicales con más instrumentos que con otro. Este formato puede ser editado sencillamente con un programa Secuenciador, podemos mover notas, eliminarlas, cambiar los instrumentos, acelerar o disminuir la velocidad de reproducción.cambio hace que la serie de números cambie. Para grabar MIDIS existen dos método, el sampling de tablas de onda y la síntesis de FM. Ésta última se utiliza en placas viejas o de poca calidad; en cambio los de sampling de tablas de ondas tienen mejor calidad, ya que en la placa están grabados instrumentos reales.

c. CD-A:

son ficheros de audio que pueden estar guardados en portadores de CD. Ficheros .cda son representaciones de pistas de audio y no contienen la información de modulación de código de pulso (PCM). Ficheros CDA pueden ejecutarse sólo desde CD-ROM. Este formato se usa para codificar música en todos discos compactos comerciales. Si compras un CD en una tienda, la música de este CD está guardada en formato CDA. Para un CD de audio se requiere como regla frecuencia de muestreo de 44.1 kHz y tamaño muestral de 16 bits (2 bytes por muestreo). Así que necesitas guardar 2 x 44,100= 88,200 bytes de datos cada segundo para grabar en mono. Para grabar en estereo se requiere dos veces más espacio. Se extrapola hasta 10 Mb de datos para cada minuto de ejecución en estereo! Exactamente por esta razón los esquemas de compresión como MP3 son tan importantes. Desgraciadamente el ordenador no puede guardar ficheros en formato CDA, por eso tienes que convertir ficheros CDA a otro formato para tenerlos en el disco duro

d. MP3:

es un formato de compresión de datos de audio con pérdida, desarrollado por la Organización Internacional de Normalización (ISO). Este formato se utiliza para comprimir formatos de audio normales (WAV o CD audio) en una relación de 1:12. Permite almacenar el equivalente a 12 CDROM de álbumes de música en el espacio de un solo CD. Es más, el formato mp3 casi no altera la calidad del sonido para el oído humano.La compresión MPEG Layer 3 consiste en quitar los datos que corresponden a las frecuencias inaudibles para un te medio bajo condiciones de audición normales. Esta compresión analiza los componentes espectrométricos de una señal de audio, y les aplica un modelo psicoacústico para preservar solamente el sonido "audible". El oído humano es capaz de discernir, de media, sonidos entre 0,02 kHz y 20 kHz, con una sensibilidad máxima de frecuencias que oscila entre 2 y 5 kHz (la voz humana se sitúa entre 0,5 y 2 kHz), siguiendo la curva de la ley de Fletcher y Munson. La compresión MPEG consiste en determinar aquellos sonidos que no oímos y suprimirlos, Por lo tanto es una "compresión con pérdida" donde se destruyen algunos datos.Con la compresión MP3, un minuto de un CD de audio (a una frecuencia de 44,1 kHz, 16 bits,estéreo) ocupa sólo 1 MB.
La descompresión de un archivo MP3 (es decir, la reproducción) se realiza en tiempo real con unaCPU Pentium 166, pero monopoliza los recursos del sistema. Por este motivo no se recomienda ejecutar otra aplicación que demande mucha memoria mientras se reproduce, a menos que se disponga de un equipo de gran rendimiento.

e. WMA:

Windows Media Audio o WMA es un formato de compresión de audio con pérdida, aunque recientemente se ha desarrollado de compresión sin pérdida, es propiedad de Microsoft. Compite con el MP3, antiguo y bastante inferior técnicamente; y Ogg-Vorbis, superior y libre, usando como estrategia comercial la inclusión de soporte en el reproductor Windows Media Player, incluido en su popular sistema operativo Windows. Aunque el soporte de este formato se ha ampliado desde Windows Media Player y ahora se encuentra disponible en varias aplicaciones y reproductores portátiles, el MP3 continua siendo el formato más popular y por ello más extendido. A diferencia del MP3, este formato posee una infraestructura para proteger el Copyright y así hacer más difícil el "tráfico ilegal" de música.Este formato está especialmente relacionado con Windows Media Video (WMV) y Advanced Streaming Format (ASF).

f. OGG VORBIS:

es un formato de compresión de datos de audio desarrollado por Xiph.org.Como el formato MP3, es una forma de compresión que reduce algunos de los datos de audio y se denomina "compresión con pérdida". (lossy compression) Esto quiere decir que se eliminan algunos de los datos de audio (frecuencias inaudibles, por ejemplo), para obtener el mayor grado de compresión posible y generar un archivo de salida que suene lo más parecido posible al original. Lo que distingue al formato Ogg Vorbis es que es un formato de código abierto, a diferencia de sus competidores principales como el formato MP3, WMA, Atrac y AAC. Esto significa que el algoritmo de compresión se puede utilizar libremente por todos los productores de software, y es un recurso para el desarrollo y el lanzamiento de numerosas herramientas y librerías libres de derecho(open sources). El formato Ogg Vorbis no es compatible con el formato MP3; esto significa que el usuario tiene que utilizar un reproductor de audio que admita el formato o instalar un codec para reproducir los archivos Ogg Vorbis. Sin embargo, cada vez son más los programas de audio que pueden reproducir los archivos Ogg Vorbis, y la mayoría de sofwares actuales de reproducción de MP3 admiten este formato.


g. REAL AUDIO(RM):

Real Audio es un format de audio creado por RealNetworks en 1995, la versión actual es Real Audio 10. Archivos de este formato tienen las extensiones RA, RAX, RM o RAM. Real Audio a menudo se usa como un formato de audio streaming (el archivo puede ser descargado y reproducido al mismo tiempo gracias a su características de adaptarse rápidamente). Esta particularidad hizo el formato Real Audio muy popular entre las estaciones de radio en internet. Archivos Real Audio pueden ser ejecutados con RealNetworks' RealPlayer. Para guardar stream de audio como un archivo se usa MPlayer and StreamBox VCR, ambos gratuitos. Hay quien usa Real Alternative o JetAudio para reproducer archives Real Audio, pero en este caso se requiere plugin adicional gratuito

No hay comentarios:

Publicar un comentario