miércoles, 20 de mayo de 2009

Comentario sobre las exposiciones del Jueves 14 de Mayo

Buenas! Sobre las exposiciones del otro día, simplemente decir que todas fueron bastante interesantes y que, al menos a mí, consiguieron dar una perspectiva bastante grande de las aplicaciones que puede tener un DSP.
Sobre cada exposición individual, y desde mi punto de vista, la de Paco sobre Sistemas Biométricos fue bastante interesante ya que trataba una temática sobre la que yo no tenía ningún conocimiento; la de David sobre DSPs en estudios de audio, para mi gusto y quizás por estar en cierta forma relacionada con la temática que yo traté, tampoco tuvo desperdicio y me pareció que estaba bastante bien expuesta; la de Cristian sobre DSPs en el tratamiento de señales en satélites me gustó bastante en lo relativo a la temática pero fue una pena que no se pudiera llegar a completar, al menos de la forma deseada, pero también pienso que era una temática difícil de sintetizar en tan poco tiempo; en cuanto a Torres y su exposición sobre Sistemas Radar, de nuevo, la temática me gustó bastante y también agradezco el hecho de que, ante un tema tan complejo como es un sistema de este tipo, la exposición fuera más en un tono "descriptivo" que "matemático" para así tener una visión general del mismo; en cuanto a la mía, ya es tarea vuestra el "ponerme verde"...
En definitiva, ¿cuál me gustó más? No sé, aunque la de David trataba sobre un tema que me interesa en especial (el audio), no puedo decir que ninguna de las otras temáticas no me pareciera, como poco, curioso, con lo que sólo puedo comentar que todas me parecieron correctas y, en cierta forma, hasta divertidas.

miércoles, 13 de mayo de 2009

Efectos de audio en tiempo real

Hasta hace relativamente poco (hablamos de 20 años atrás) todo lo que tenía que ver con procesado de la señal de audio se realizaba en un medio totalmente analógico, es decir, filtros creados por medio de componentes totalmente analógicos (resistencias, condensadores, bobinas, amplificadores operacionales…) que daban como resultado unas unidades cuya principal característica era su dificultad de reproducir: al depender todo de los componentes, cada elemento, por mucho cuidado que se llevara en fabricación, era muchas veces diferente del elemento que se había creado antes. Otra característica asociada a esta forma de procesamiento es que se necesitaba una unidad entera para realizar un único tipo de efecto (por ejemplo, un circuito eléctrico completo para modelar únicamente un efecto de wah-wah) e incluso en ocasiones se hacía necesario el incluir una serie de elementos mecánicos para conseguirlo (unidades de delay que utilizaban cintas para almacenar los valores de la señal o reverbs conseguidos mediante muelles), características que hacían de estas unidades elementos grandes y, muchas veces, con necesidad de ser reajustadas, algo bastante aparatoso, sobretodo en los momentos en que un grupo sale de gira.

Detalle de la unidad Roland RE-201 que utilizaba una cinta magnética como unidad de retardo para la creación de delays y ecos.


Cuando la potencia de cálculo se hizo factible para los procesadores existentes y, sobretodo, cuando el coste se hizo asequible tanto para fabricantes como para usuarios de a pie, comenzaron a aparecer los efectos de audio digitales que no son más que procesadores, muy preparados para realizar ciertos tipos de operaciones, que lo único que hacen es implementar filtros digitales cuyos coeficientes son los mismos que se pretendían obtener en las unidades analógicas. La ventaja de los segundos sobre los primeros radica en que, mientras que en las unidades digitales el cambiar de efecto supone simplemente cambiar esos coeficientes del filtro (eso es algo que se realiza a nivel de programación y, por tanto, pueden llegar incluso a juntarse diferentes efectos en la misma unidad), en una unidad analógica supone el hecho de cambiar todo el circuito completamente. Además, otra característica de estas unidades de procesado de señal es que, al ya no depender el resultado de la electrónica presente en las mismas, sino de la programación que se dé al procesador, la reproducción de estas unidades de una forma mucho más precisa que en cualquier otro tipo de unidades de procesado de audio es posible.
Para finalizar simplemente me gustaría formular la clásica pregunta que se suele plantear la mayor parte de la gente que se interesa por este tema: si bien es verdad que el procesado digital de la señal es mucho más sencillo de implementar, ¿qué ofrece más calidad, el procesado analógico o el digital?

lunes, 4 de mayo de 2009

Las diferentes G's de la telefonía móvil

Como complemento al post sobre HSDPA, aquí viene un pequeño resumen sobre las diferentes tecnologías que han ido definiendo la historia de las comunicaciones móviles:

0G
La llamada telefonía móvil 0G fue el precedente de la telefonía celular tal cual se conoce hoy. Estos teléfonos, cuyo funcionamiento era analógico totalmente, normalmente se colocaban en coches o camionetas. Este tipo de telefonía se implementó con relativo éxito en los años 70 en Finlandia, entre otros lugares.


1G
Esta tecnología, que prosperó durante los años 80, difería bastante con la anterior generación de "teléfonos móviles" por el hecho de utilizar ya un sistema de redes celulares. Sin embargo, todo el sistema continuaba siendo analógico, con lo cual la transmisión seguía estando limitada para transmitir únicamente señal de voz.
Los estándares principales que se utilizaban en este tipo de telefonía eran:
  • AMPS (Advanced Mobile Phone System): Primer estándar de telefonía celular. Fue implementado con éxito en Estados Unidos en los comienzos de los años 80. Desarrollado por Bell.
  • TACS (Total Access Communication System): Variante del sistema AMPS. Fue el estándar utilizado por Moviline en España.
  • ETACS (Extended Total Access Communication System): Variante del sistema AMPS y que fue una mejora del sistema TACS.

2G
El cambio básico entre esta generación (que se considera comienza con los años 90) y las anteriores es que, desde este momento en las siguientes generaciones, los sistemas serán totalmente digitales. Gracias a esto, además de transmitir voz como ya se había conseguido, se comienzan a poder enviar datos, dando lugar a uno de los mayores fenómenos sociales que pueden haber existido: los SMS. Además, los teléfonos cada vez comenzaban a ser más pequeños y a contar con más funciones que las de comunicarse.
Algunos de los estándares que utilizó (y utiliza) este tipo de telefonía son:
  • GSM (Groupe Spécial Mobile): Primer estándar digital para la telefonía móvil. Es, a día de hoy, el más extendido.
  • CDMA (Code Division Multiple Access): Sistema diseñado por Qualcomm que utiliza la técnica de ensanchado de espectro para mejorar la calidad de la comunicación.
  • TDMA (Time Division Multiple Access): Sistema que emplea la técnica de multiplexación en el tiempo asignando a cada usuario un ancho de banda grande.
  • GPRS (General Packet Radio Service): También conocido como 2.5G, es una mejora en la velocidad de transmisión de datos respecto a GSM.
  • EDGE (Enhanced Data rates for GSM Evolution): Estándar no tan conocido como los anteriores y que también es llamado 2.75G. Es básicamente otra mejora de velocidad con respecto a GPRS.


3G
La tercera generación de móviles, la cual se puede considerar que comienza más o menos con el nuevo milenio, se puede ver como una mejora de la calidad en la transmisión de datos (básicamente, una mejora en la velocidad de transmisión/recepción) con respecto a la generación anterior, en gran parte motivado por la introducción de todo tipo de servicios multimedia.
Los estándares más populares de este tipo de telefonía son:
  • UMTS (Universal Mobile Telecommunications System): Estándar conocido como 3G que optimiza la tasa de transferencia de datos para aplicaciones multimedia.
  • HSDPA (High-Speed Download Packet Access): Tecnología conocida como el 3.5G y que hemos descrito en el post anterior.
  • HSUPA (High-Speed Uplink Packet Access): Tecnología conocida como el 3.75G y de la cual también hemos hablado en el post anterior.


4G
Aunque todavía no se puede especificar con certeza qué será exactamente, se supone que este tipo de tecnología mejorará muchísimo la velocidad de transmisión de datos y que, se espera, funcionará sobre IP.

Espero que esto te haya aclarado algo sobre la gran cantidad de siglas que siempre rodea a este mundo!

Referencias:
http://es.tech-faq.com/history-of-cell-phones.shtml
http://telscelular.blogspot.com/2007/11/historia-del-telefono-movil.html
http://es.kioskea.net/contents/telephonie-mobile/reseaux-mobiles.php3

HSDPA

La tecnología HSDPA, cuyas siglas significan literalmente High-Speed Download Packet Access (en castellano, Acceso a Descarga de Paquetes a Alta Velocidad), es un avance que permite conexiones de banda ancha en dispositivos móviles. Esta tecnología, que comenzó a dejarse ver en aplicaciones prácticas por el año 2006, es una optimización del UMTS (Universal Mobile Telecommunications System), que es una de las utilizadas por los sistemas 3G.

Los dispositivos capaces de emplear esta mejora de UMTS se los conoce como dispositivos 3.5G ya que, a pesar de mejorar considerablemente sobre la tecnología 3G (representada por el sistema UMTS ya citado), no se consigue alcanzar las especificaciones propuestas para los futuros sistemas 4G.
En cuanto a las mejoras del HSDPA respecto al UMTS, el primero, teóricamente, permite alcanzar los 14.4 Mbps de bajada (en la práctica se suele quedar más o menos por la mitad en casos optimistas) mientras que con el segundo conseguimos, teóricamente y como mucho, 384 Kbps de bajada y 64 Kbps de subida (en la práctica son 128/240 Kbps de bajada). Cabe destacar que, con el uso de dispositivos adecuados (por ejemplo, receptores con antenas de tipo MIMO), se puede llegar a los 20 Mbps de descarga teóricos con HSDPA.
Las mejoras básicas en las que se sustenta esta tecnología para conseguir esas velocidades de transferencia de datos son:
  • Empleo de la modulación 16-QAM, siempre que se pueda. Si no es así se suele recurrir a la QPSK
  • Utilización de un canal de enlace denominado HS-DSCH (High-Speed Downlink Shared Channel) y que permite que usuarios de una misma región o sector compartan recursos, consiguiendo así mayor eficiencia en la comunicación
  • Esquema de modulación y codificación adaptativa (AMC): es un esquema con el cual la transmisión de datos se adapta al canal de los usuarios, es decir, si tiene un buen acceso se permiten tasas de datos más altas mientras que si el acceso no es el óptimo se reducen esa cantidad de datos transmitidos
  • Disminución de la latencia del sistema producida por el envío de mensajes de error
Los grandes beneficiados de esta tecnología son los teléfonos móviles, los cuales ya pueden disfrutar de un servicio de acceso a banda ancha para cualquier aplicación multimedia. Por citar algunos teléfonos, destacan el iPhone de Apple (mejor dicho, la segunda edición del mismo ya que la primera estaba orientada a servicios GSM) o el HTC Touch Dual. También destacan las aplicaciones de tipo módem para que las personas con acceso limitado al servicio de red (como puede ser gente que viva en zonas en las que no hay línea telefónica) puedan disfrutar de un servicio de banda ancha. Para esta aplicación, y por citar uno, destaca el Módem USB Vodafone Mobile Connect, el cual podemos ver a continuación:




Finalmente, para finalizar, simplemente comentar que la evolución de la tecnología aquí comentada es la llamada HSUPA, cuyas siglas significan High-Speed Uplink Packet Access (en castellano Acceso a Subida de Paquetes a Alta Velocidad). Esta tecnología, llamada 3.75G, es básicamente una mejora de la velocidad de subida de información, situándola cerca de los 10 Mbps teóricos. La unión de ambos sistemas (el de subida y el de bajada) conforman lo que se conoce como el HSPA, cuyo significado el High-Speed Packet Access (Acceso a Paquetes a Alta Velocidad) y que viene a ser el acceso a la información a velocidades no despreciables, sobretodo teniendo en cuenta que, al fin y al cabo, el medio en el que nos movemos es el aire, lo que normalmente añade problemas frente a una comunicación directa por cable.


Referencias:
http://www.idg.es/pcworldtech/mostrararticulo.asp?id=177533&seccion=movilidad
http://blog.pucp.edu.pe/item/21255
http://www.terra.es/tecnologia/articulo/html/tec14016.htm
http://www.hectormilla.com/article/800/3gsm-que-es-esto-del-hsdpa
http://ciberadictos.blogspot.com/2006/06/hsdpa-ancho-de-banda-en-el-mobil.html
http://www.teleco.com.br/es/tutoriais/es_tutorialhsdpa/pagina_2.asp
http://www.xatakamovil.com/conectividad/que-es-hhttp://www.idg.es/pcworldtech/mostrararticulo.asp?id=177533&seccion=movilidadsupa

martes, 21 de abril de 2009

VoIP

VoIP, literalmente Voz Sobre IP (Voice Over Internet Protocol), es una tecnología que permite la transmisión de voz por internet. Básicamente lo que esta forma de comunicación hace es transformar la voz humana a paquetes de tipo IP (es decir, la digitaliza, la comprime y la encapsula como datos de uno o varios paquetes) y mandar esos paquetes de información a su destinatario, que es básicamente una dirección IP, dónde serán procesados (se irá extrayendo la información de los paquetes y se irá descomprimiendo) y tratados para volver a obtener la voz. Toda lo que rodea a esta tecnología está definido en el estándar H323 de la UIT.
Algunos de los protocolos que se han empleado en esta tecnología son H.323, SIP, IAX o Skype, siendo el más conocido el último de todos por ser el que emplea el programa del mismo nombre, el cual es uno de los más utilizados para hacer uso de esta tecnología.

Las ventajas de este tipo de telefonía frente a la convencional son las siguientes:
  • Disminución en el coste de la comunicación
  • Posibilidad de tener varias llamadas por una misma línea de teléfono: se aprovecha el empaquetamiento de la señal para mantener diferentes conversaciones
  • Almacenamiento de conversaciones en el ordenador
  • Total movilidad: como el direccionamiento es IP podemos movernos por cualquier parte del mundo que siempre tendremos la misma dirección
Algunas de las desventajas presentes en esta tecnología son las que siguen:
  • Problemas de seguridad: al ir sobre la infraestructura de Internet es necesario el encriptar bastante la señal a transmitir para evitar robos
  • Retrasos, cortes y pérdidas de información: puede ocurrir que se pierdan paquetes de datos (algo normal en la tecnología TCP/IP) o que algunos lleguen antes que otros (por coger caminos distintos). Esto se soluciona con el protocolo RTP (Real Time Protocol) que trabaja a nivel de sesión y cuya finalidad es ordenar correctamente los paquetes.
También cabe destacar el tema de la calidad con la que transmite/recibe la señal de voz: la calidad con la que viaja la señal depende del códec utilizado, que básicamente lo que hace es comprimir la voz. Esta compresión no es gratuita, es decir, muchas veces hay que eliminar información, disminuyendo la calidad de la señal transmitida, pero es algo necesario ya que nuestro medio es limitado en banda y sobretodo si queremos transmisión en tiempo real. Algunos de los códecs empleados son los que siguen:
  • G.711: Es el utilizado en telefonía fija digital. Utiliza la Ley mu (América del Norte y Japón) o la Ley A en Europa como técnicas compansión/expansión para la posterior digitalización de la señal. Consigue tasas de 64 kbps.
  • G.722: Utiliza un algoritmo de codificación denominado SABDPCM que deriva de la modulación PCM. Consigue tasas de 48, 56 y 64 kbps.
  • G.723: Utiliza la codificación multitasa. Consigue bitrates entre 5.3 y 6.4 kbps.
  • G.726: Emplea la modulación ADPCM, consiguiendo unas tasas de 16, 24, 32 y 40 kbps.
  • G.727: Es una variación del anterior, consiguiendo un bitrate parecido.
  • G.728: Este códec está basado en el algoritmo LD-CELP. Consigue tasas binarias de 16 kbps.
  • G.729: Emplea el algoritmo CS-ACELP consiguiendo bitrates de 8 kbps.
  • Speex: Proyecto que parte del movimiento GNU y cuya intención es crear un códec de voz libre. Actualmente consigue bitrates entre 2.15 y 44.2 kbps utilizando el algoritmo CELP.
Finalmente, por citar algunos de los programas que se pueden emplear en nuestro ordenador para hacer uso de esta tecnoogía, destacan:
  • Skype: Es actualmente la aplicación más conocida que lleva a cabo las tareas de telefonía IP. Es de código cerrado (tanto la aplicación como la tecnología que utiliza) pero se puede obtener gratuitamente. Tiene versiones en Windows, OS X y Linux, siendo la versión más desarrollada la correspondiente al primero de los sistemas operativos comentados.

  • Gizmo Project: Es otro programa de VoIP gratuito pero de código cerrado y también multiplataforma.

  • Softphone Ekiga: Es una aplicación de tipo software libre y multiplataforma que permite la comunicación VoIP. Utiliza el protocolo SIP como núcleo de su programación.
Fuentes:
http://www.monografias.com/trabajos3/voip/voip.shtml
http://es.tech-faq.com/h.323.shtml
http://es.tech-faq.com/voip-codec.shtml
http://www.microsoft.com/spain/protect/yourself/home/voip.mspx
http://www.unicrom.com/Tel_VoIP_ventajas_desventajas.asp

lunes, 30 de marzo de 2009

Internet bueno, bonito y barato

Buenas! Como una de las actividades de PDS de esta semana hemos tenido que comparar diferentes ofertas de proveedores de Internet (ISPs) de la zona en la que vivimos. Ahí van las conclusiones:

Telefónica y ADSL
Dúo ADSL 10 Mb
Tecnología ADSL 2+. Conexión 24 h. 10 Mb (bajada) / 320 Kb (subida). Llamadas locales, provinciales y nacionales incluidas. Bien Kit autoinstalable bien instalación por técnico.
5 buzones de correo: 1 de 1 Gbyte y 4 de 100 Mb. Espacio web de 5 Mb.
Viene el antivirus Kasperksky (una licencia para su uso).
8 cuotas a 29,90 €/mes (tras eso, 44,90 €/mes).

Dúo ADSL 6 Mb
Conexión 24 h. 6 Mb (bajada) / 320 Kb (subida). Llamadas locales, provinciales y nacionales incluidas. Bien Kit autoinstalable bien instalación por técnico.
5 buzones de correo: 1 de 1 Gbyte y 4 de 100 Mb. Espacio web de 5 Mb.
Viene el antivirus Kasperksky (una licencia para su uso).
Hasta 2010 29,90 €/mes (tras eso, 40,90 €/mes).

Dúo ADSL 1 Mb
Conexión 24 h. 1 Mb (bajada) / 256 Kb (subida). Límite máximo de descarga de 20 Gb (incluyendo subida y descarga). Tras ello pasa al perfil de 256 Kb. Llamadas locales, provinciales y nacionales incluidas. Bien Kit autoinstalable bien instalación por técnico.
5 buzones de correo: 1 de 1 Gbyte y 4 de 100 Mb. Espacio web de 5 Mb.
29,90 €/mes.

Dúo ADSL 6 Mb + Televisión
Lo mismo que el Dúo ADSL 6 Mb pero incluyendo el servicio de televisión.
Hasta 2010 29,90 €/mes (tras eso, 43,90 €/mes).

ONO y cable
Línea de teléfono + Internet Banda Ancha 2 Mb
Cuta mensual: 28 €
Alta: 39 €
Instalación gratis
Módem cable gratis
Router WiFi: 50 €
Portabilidad de número gratuita
Centinela Ono con antivirus y firewall: 3 €/mes

Teléfono Fijo con llamadas gratis + Internet Banda Ancha 6 Mb
Cuta mensual: 50 €
Alta: 39 €
Instalación gratis
Módem cable o Router WiFi gratis por contratación online.
Portabilidad de número gratuita
Llamadas a cualquier teléfono de ámbito nacional totalmente gratuitas.

TELE 2 y ADSL
Línea de teléfono + ADSL + Llamadas (1 Mb)
29,90 €/mes
Todas las llamadas (locales, provinciales e interprovinciales) incluidas en la cuota mensual.
Alta gratis.
Mantenimiento de número.
1 Mb (bajada) / 300 Kb (subida)

Línea de teléfono + ADSL + Llamadas (3 Mb)
32,90 €/mes
Todas las llamadas (locales, provinciales e interprovinciales) incluidas en la cuota mensual.
Alta gratis.
Mantenimiento de número.
3 Mb (bajada) / 300 Kb (subida)

Línea de teléfono + ADSL + Llamadas (20 Mb)
19,95 €/mes hasta Junio 2009 y a partir de ahí 39,90 €/mes.
Todas las llamadas (locales, provinciales e interprovinciales) incluidas en la cuota mensual.
Alta gratis.
Mantenimiento de número.
20 Mb (bajada) / 500 Kb (subida)

Línea de teléfono + ADSL
20 Mb (bajada) / 500 Kb (subida)
29,90 €/mes

JAZZTEL y ADSL
ADSL Jazztelia TV + Llamadas gratis
Básico TV: 11,55 €/mes
Alquiler receptor Jazztelia TV + TDT: 6€/mes
Cuota mensual ADSL: 30,95 €/mes
Equipo ADSL Router WiFi: 35 €
Llamadas de ámbito nacional gratuitas

ADSL hasta 20 Megas + Llamadas gratis
Cuota mensual ADSL: 30,95 €/mes
Router monopuerto gratis
Router WiFi: 35 €
Llamadas de ámbito nacional gratuitas
Velocidad 20480 Kb (bajada) / 1024 Kb (subida)

ADSL hasta 6 Megas + Llamadas gratis
Cuota mensual ADSL: 26,95 €/mes
Router monopuerto gratis
Router WiFi: 35 €
Llamadas de ámbito nacional gratuitas
Velocidad 6 Mb (bajada) / 512 Kb (subida)

ADSL hasta 3 Megas + Llamadas gratis
Cuota mensual ADSL: 21,95 €/mes
Router monopuerto gratis
Router WiFi: 35 €
Llamadas de ámbito nacional gratuitas
Velocidad 3 Mb (bajada) / 512 Kb (subida)

Internet 24h RTC/RDSI + Llamadas gratis
Simplemente añado esta oferta por lo curioso de la misma ya que es un tipo de tecnología cada vez menos común y que me ha llamado la atención.
Ofrece servicio de Internet tanto de tipo módem analógico (módem que ofrece como máximo ancho de banda 56 Kbps) o bien por módem RDSI, es
decir, tecnología ya digital con una velocidad máxima de 64 Kbps.

Pues hasta aquí todo. Simplemente os digo que no os toméis esto al pie de la letra e intentad buscar información si de verdad queréis tener Internet de buena calidad y a buen precio que luego las culpas me las llevo yo... Nos vemos!

martes, 10 de marzo de 2009

CeBIT

CeBIT es una feria enfocada a la tecnología, como puede ser el SIMO aquí en España, que se viene celebrando desde 1986 anualmente en la ciudad alemana de Hannover. Cabe destacar que no tiene nada que envidiar a ninguna de sus equivalentes en los distintos países, puesto que es la que mayor importancia tiene en este campo a nivel mundial.
Centrándonos más en la edición de este año, la feria ha tenido lugar del 3 al 8 de Marzo y se han podido ver algunos avances tecnológicos interesantes, de los cuales a continuación vamos a resaltar algunos:
  • Monitores Inalámbricos: Este gran avance tecnológico viene de la mano de la empresa ASUS. Según se dijo en la feria, esta tecnología será la llamada Asus ezLink y permitirá "conectar" (por ponerlo de alguna forma, pero nos referimos a algo inalámbrico) incluso hasta seis monitores a la misma máquina.
  • Microsoft Surface: La compañía de Bill Gates aprovechó para insertar en el mercado europeo un revolucionario sistema que pretende ser un gran avance en lo que se ha llamado Interfaz de Usuario Natural (NUI), es decir, una "superficie" que, con nuestras propias manos y gestos naturales, podemos manejar tocando y manipulando la información literalmente con nuestras propias manos.

  • eBooks: Los famosos libros electrónicos, aunque no son una novedad, sí que es remarcable la importancia que cada vez más van teniendo por todo el tema del desarrollo sostenible. Algunos de los que se vieron en la feria fueron el Kindle de la empresa Amazon, el PRS-505 de Sony, el eSleek de Foxit o el BOOX de Onyx.

  • Green IT: Con este nombre se designa a las tecnologías que se basan en el desarrollo sostenible y que intentan contaminar lo menos posible. Recomiendo visitar el post al respecto de la compañera Mamen.
  • eyeBook: Quizás sea la novedad que más me ha llamado la atención. Se trata de una especie de "libro multimedia", es decir, un libro electrónico que es capaz de ver por dónde van nuestros ojos leyendo y así crear el ambiente necesario para ayudar a meternos en esa situación mediante sonidos o imágenes. Una verdadera experiencia multimedia que ha sido desarrollada por el DFKI.
Finalmente, y no por ello menos importante, me gustaría destacar algo que también me ha llamado la atención pero que, al no ser una novedad de la feria, no sabía muy bien como ponerlo en el post: el "C3PO Barman". Según he podido leer, se trata de un robot que se encarga de preparar y servir las bebidas a los periodistas acreditados a la feria y según parece en la foto con bastante habilidad:

Ref.:
http://www.lomasnuevo.net/noticias/cebit-2009/
http://www.abc.es/20090308/nacional-sociedad/gris-cebit-2009-caen-200903082058.html
http://www.xataka.com/tag/cebit+2009
http://www.gigle.net/arranca-el-cebit-2009/
http://www.electro-imagen.com/index.php?option=com_content&task=view&id=3119&Itemid=2
http://www.gizmotika.com/2009/02/28/onyx-boox-ereader-para-el-cebit-2009/
http://www.lanacion.com.py/noticias-232490.htm
http://www.gaceta.es/03-03-2009+microsoft_surface_llega_ordenador_forma_mesa,noticia_1img,24,24,49153
http://cebit.vnunet.es/

lunes, 9 de marzo de 2009

Un DSP para el reproductor de CD

Buenas! Con esta actividad se pretende escoger un DSP para realizar una aplicación de filtrado en un reproductor de CD. Las condiciones eran que la frecuencia de muestreo era 44100 Hz (la estándar en el formato CD) y que se utilizaba un filtro FIR con 300 coeficientes. Tras el cálculo de la potencia necesaria, el resultado fue 13.23 MIPS. Aunque no sabemos si es correcto, parece que al menos es un número que podría valer (vamos, que es algo que un DSP comercial existente puede procesar con tranquilidad).
Tras buscar diferentes procesadores capaces de realizar esta tarea, hemos visto los siguientes:
  • Familia TMS320C2x (Texas Instruments): Esta familia de DSP es de coma fija y con una resolución de 16 bits (algo que también se comentaba en el enunciado de la actividad). Cabe destacar que con esta familia llegaríamos a una potencia de cálculo de 12.5 MIPS (DSP TMS320C25), por lo que necesitaríamos bajar bien la cantidad de muestras o bien la cantidad de coeficientes de filtro (a unos 280).
  • Familia TMS320C2xx (Texas Instruments): Con esta familia, también de coma fija y con 16 bits de resolución, nos conseguimos mover en un rango de potencia entre 20 y 40 MIPS, de sobra para nuestra aplicación. De todo el rango posible, escogeríamos el que tuviera una potencia de 20 MIPS por ser el que más se acerca a la necesaria.
  • ADSP-21xx (Analog Devices): Se trata de un DSP con una resolución de 16 bits y de coma fija. De los que componen esta serie destaca uno que puede funcionar a 40 MIPS, lo más cercano a lo que nos hace falta.
  • ADSP-21cspxx (Analog Devices): El único DSP que tiene esta empresa en esta familia también funciona a 16 bits y con coma fija pero su media de instruciones por segundo es 50 MIPS.
Atendiendo a la principal característica que diferencia a los distintos DSPs encotrados (los MIPS), el que mejor se acercaría a nuestra aplicación sería el procesador de la familia TMS320C2xx, cuya casa es Texas Instruments. Hemos rechazado los otros bien por ser (fijándonos únicamente en los MIPS) más potentes y, por tanto, estaríamos desaprovechando potencia, o bien por quedarse cortos en la misma (primera familia de DSPs que hemos comentado de Texas Instruments, es decir, TMS320C2x).

miércoles, 4 de marzo de 2009

Arduino y compañía

Buenas! Tras encontrar algo de información acerca del sistema uCLinux en la familia de DSPs Blackfin (remito al artículo de Analog Devices realizado por el compañero Alex), me gustaría comentar un movimiento parecido al del software libre pero en hardware (denominado Hardware Abierto).
Algunos conocerán la historia y filosofía del movimiento del software libre (por ahí están Richard Stallman, Linus Torvalds o el movimiento GNU como algunos de los nombres que siempre suenan) en el que se propone la libre distribución del software (tanto a nivel de poder distribuir el código como de hacerlo de forma gratuita) protegido por la licencia GPL, en la que se aseguran tanto la autoría de la persona sobre el código como el hecho de que ese software no acabe siendo propietario.
Aunque yo conocía ya el movimiento del software libre, me llamó la atención cuando un compañero de clase me habló de Arduino. Este nombre un tanto peculiar representa una placa de desarrollo de aplicaciones con un microcontrolador (concretamente un ATmega) cuyo diseño está bajo la licencia GPL, lo que permite que ese diseño sea libre de implementarse como quiera, quien quiera y cuando quiera. Quizás en esto cueste un poco más de ver la libertad que implica ya que, desde que yo recuerde, la gente se creaba su propio grabador de Pics (típicamente el TE-20) para programar los famosos 16F84 que se insertaban en la tarjeta Piccard para poder ver el Canal Satélite gratis, y nadie decía si el grabador era propiedad de alguien, un diseño privado o cualquier otra cosa que afectara a la libre distribución de su diseño. Sin embargo, el tener un movimiento que permita tener diseños de hardware que pertenezcan a todos y, a la vez, a nadie no deja de ser curioso en una asignatura enfocada al hardware que se utiliza en el procesado de señales, ya que quizás algún día podamos recurrir a él para una aplicación medianamente modesta sin necesidad de pagar una gran cantidad de dinero por un hardware propietario.
Por último, para enlazar un poco con lo que sería nuestra asignatura, encontré un vídeo de unos chavales que, utilizando la placa Arduino (aunque no la he comentado mucho, cuenta, además de con el procesador, con unos conversores A/D y D/A, con lo que podemos digitalizar nuestra señal y tratarla con cualquiera de los algoritmos de procesado de señal que sepamos) han implementado unos efectos para su guitarra eléctrica.
Para acabar simplemente decir que, aunque existen más proyectos con la misma temática (es decir, otras placas parecidas a la que da título al post), yo os remito a la página principal de Arduino, que es de la que se ha hablado aquí.

Procesadores Digitales de Señal: Arquitecturas y criterios de selección

1. Justifica la necesidad de un DSP en una aplicación real de electrónica de consumo. ¿En qué casos usarías un microprocesador convencional?
Un DSP, hoy en día, lo podemos encontrar en cualquier reproductor de mp3 (descompresión de la señal, aplicación de efectos de audio...), en una cámara de vídeo o de fotos (algoritmos de compresión, algoritmos de balances de color...), en dispositivos de red (módems, routers...) y muchas más aplicaciones de ámbito diario, que al fin y al cabo es la electrónica de consumo.
Un microprocesador convencional lo utilizaría en cualquier aplicación de control de otros dispositivos u otros DSPs pero no para el procesado de señal ya que no sería algo eficiente.

2. ¿Qué entiendes por escalado de datos? ¿Por qué crees que se deben escalar las señales en datos de coma fija?
Simplemente el cambiar el rango en que se mueve una señal pero conservando cada uno de sus valores, es decir, no saturándola sino convirtiendo cada valor de un rango (escala) a otro rango, de forma lineal o no.
Por el hecho de que los DSPs de coma fija tienen una rango dinámico relativamente limitado (relativamente porque todo depende siempre de la problemática a la que vaya destinado a dar respuesta), al procesar datos puede que los resultados, aún estando los de origen en el rango que acepta el procesador, la salida se nos vaya de rango y por tanto sea necesario volver a introducir la señal en el mismo. Llegados a este punto bien se podría saturar la señal, pero si la gran mayoría de la señal está fuera de rango, el resultado no sería nada bueno (muchísimas muestras podrían tener el mismo valor cuando en realidad deberían ser muy diferentes), por lo que se prefiere escalar la señal, eliminando problemas como, por ejemplo, la distorsión armónica en señales de audio.

3. ¿Qué medidas para comparar la velocidad de un procesador conoces? ¿Te parecen adecuadas? ¿Cómo crees que se utilizan? Añade otras que tú consideres necesarias.
Algunas de las medidas del rendimiento conocidas son:
MIPS: Millones de instrucciones por segundo. Hace referencia a la cantidad de instrucciones que es capaz de procesar el DSP en un segundo. El que el procesador sea mejor o peor según este dato sea grande o pequeño dependerá de la arquitectura del mismo (RISC, CISC...).
MOPS: Millones de operaciones por segundo. Hace referencia a la cantidad de operaciones que puede realizar el procesador en un segundo. No es exactamente lo mismo que el parámetro anterior ya que puede que una intrucción no sea exactamente una operación (por ejemplo, en una arquitectura CISC una instrucción puede significar varias operaciones).
FLOPS: Operaciones de coma flotante por segundo. Hace referencia a lo mismo que MIPS pero se aplica a procesadores que trabajan en coma flotante.
MBPS: MegaBytes por segundo. Hace referencia al rendimiento del sistema.
MAC: Operación de multiplicación-acumulación. Hace referencia al tiempo que tarda el procesador en realizar una multiplicación y guardar el resultado en memoria.
Las medidas aquí propuestas parecen bastante razonables para cuantificar la velocidad y capacidad de procesado de un DSP. Con respecto a otra forma de medir su potencia, yo añadiría resultados de tiempo obtenidos ante procesos conocidos, como pueden ser tablas de tiempo de cómputo ante operaciones que han de realizar estos procesadores como FFTs, operaciones con filtros... Esto realmente aparece en los datasheets de los procesadores, pero al no aparecer en este artículo, creí oportuno el nombrarlo.


4. Explica, con tus propias palabras, qué es la segmentación de intrucciones. ¿Qué son las instrucciones de "salto"? ¿Por qué dan problemas con el pipelining?
La segmentación en procesadores consiste en dividir las instrucciones en unidades más pequeñas (procesos más pequeños) que puedan procesarse de forma paralela y así ganar tiempo de cómputo, ya que en los procesadores en los que las instrucciones se procesan de forma secuencial (un detrás de la otra), el tiempo de cómputo total, en el mejor caso, es la suma de los tiempos de cada operación, mientras que en un sistema en que se permita el solape, idealmente con un solape total, el tiempo de cómputo (en un período estacionario tras el transitorio inicial) sería el tiempo que tarda la mayor operación en realizarse.
Una operación de salto es una operación que cambia de la línea en la que está a otra línea que nos es la que le sigue, sino que es otra que estará en otra parte del código (tanto por arriba como por abajo). Un ejemplo de instrucción de salto sería el famoso GOTO o un condicional IF.
Las instrucciones de tipo salto dan problemas con el pipelining porque el procesador, si comienza a realizar la línea que sigue a la que se está ejecutando (concepto de solape de instrucciones), puede que esa línea nunca se tenga que ejecutar (imaginemos un condicional en el que la condición evaluada no se cumpla) o por ejemplo que la línea siguiente requiera un resultado de la anterior para poder procesarse. En este tipo de casos, no se puede realizar el solape (al menos el solape ideal del 100%) ya que necesitamos un resultado anterior para poder seguir.
Como conclusión de esto podemos afirmar que, en el peor caso del pipelining, nos encontramos con un sistema totalmente secuencial.

5. Imagina que tienes un puesto de ingeniero jefe de un proyecto telecomunicaciones en una empresa. Tu primer cometido es elegir una placa de desarrollo en tiempo real adecuada para la aplicación que vas a desarrollar. Especifica qué criterios tomarías para realizar dicha elección, justificándolos.
Para elegir una placa de desarrollo sobre la que realizar las pruebas de los algoritmos de la empresa, me basaría en los siguientes criterios:
  • Primero de todo intentaría escoger un DSP cuyas características se acercaran bastante a los procesadores que luego pueda utilizar en el proyecto. De nada serviría el poder utilizar procesadores muy potentes en diseño y esperar los mismos resultados en la fase de producción, siendo los utilizados en la segunda etapa bastante distintos (normalmente menos potentes) a los primeros. Además, también conviene utilizar un DSP cuyas características sean lo más cercanas posible a lo que finalmente requerirá el algoritmo por el hecho de que si no tuviéramos suficiente potencia de cálculo, el DSP no funcionaría en "tiempo real" y si tuviéramos más de la necesaria habrían partes del procesador que no estarían funcionando al máximo pero sí gastanto potencia energética.
  • Siguiendo con el tema de potencia (aunque en este caso energética), intentaría utilizar un DSP bastante similar al que fuera a utilizar en la aplicación final: el saber si el algoritmo necesita gran potencia energética (que aunque está relacionado con la de cálculo, vale la pena considerarlo como una variable más para un mejor diseño) vendrá bastante bien para poder optimizar el diseño final.
  • También, como criterio de búsqueda de qué DSP utilizar, propondría la utilización de un procesador que fuera relativamente común (en la medida de lo posible) y de una empresa relativamente fuerte en este tipo de mercado. Este criterio es algo inicial y no implica que más tarde, cuando ya se pudieran evaluar los objetivos comerciales del proyecto, si se hubiera tenido éxito, no se pudiera contemplar la posibilidad de firmar con una casa de DSP más modesta la creación de una línea propia de procesadores.

lunes, 23 de febrero de 2009

World Mobile Congress

Entre el 16 y el 19 de febrero en la ciudad de Barcelona ha tenido lugar la feria más importante del ámbito de la telefonía móvil denominada la World Mobile Congress. Cada año, en este evento, se exponen los avances más significativos conseguidos en este campo.
En la edición que ha tenido lugar se preveían cerca de 50.000 visitantes (según cifras oficiales, finalmente hubieron 47.000 asistentes) y unas 1.300 compañías. Algunas de estas compañías, habituales por otro lado en estas ferias, fueron Telefónica, Microsoft, Nokia, Samsung o Toshiba.
Algunas de las novedades que en esta feria se expusieron son las que siguen:
  • Móvil ecológico Blue Earth: Aunque ya se comentó en clase (creo que fue el compañero Javier Sala), me pareció una idea bastante curiosa y, buscando información, encontré que es una propuesta de la empresa Samsung y que el aparato en sí lleva una placa solar capaz de abastecerlo, así como que parte del mismo (en concreto la carcasa) está fabricado con materiales reciclados.

  • MiFi: Es una propuesta de la empresa Novatel y que llegará a España de la mano de Telefónica. Esta tecnología permitirá crear redes WiFi a partir de las conexiones clásicas a Internet por medio de la telefonía móvil: con este aparato y una tarjeta SIM, que será la que nos dé acceso a la red, podremos crear una red inalámbrica a la que podremos conectar ordenadores, consolas, teléfonos móviles con opciones de WiFi...

  • Sistema Operativo Android: Como ya ha comentado el compañero David del Rosario en su blog, Android es un sistema operativo que está basado en el núcleo de Linux (lo que se conoce como el kernel) y que seguirá con la filosofía del mismo: libre distribución y código abierto (licencia open source). Este sistema está previsto que se vea en la famosa HTC Dream y en algunos otros dispositivos de Samsung o Motorola.
  • Sistemas de escritorio 3D: Aunque no es nada excesivamente nuevo en ordenadores personales, los sistemas que permiten hacer escritorios tridimensionales en el móvil (como en su momento Beryl ó Compiz Fusion en Sistemas Linux para ordenadores) es algo que se ve como una tendencia futura.
  • i-mate Project Centurion: En esta edición del World Mobile Congress se presentó el que posiblemente sea el móvil más pequeño con Windows Mobile hasta la fecha (del tamaño de una tarjeta de crédito).

  • Cargador Universal: Como ya apuntó un compañero en clase (creo recordar que fue Nacho), este simple aparato, aunque parezca la mayor tontería del mundo, solucionará el hecho de que por ejemplo en casa, por tener cada uno el móvil de una marca, tengan que haber sendos cargadores.
  • Cargador Ecológico: Samsung está bastante comprometida con el medio ambiente por lo que parece: en la misma feria presentó el Blue Earth (móvil ecológico comentado antes) y el cargador que ahora estamos comentando que tiene dos vertientes, la de carga por energía solar y la de carga con una dinamo. Aunque esto no parece nuevo (los ordenadores OLPC o las famosas linternas recargables que tienen adaptadores para el móvil), es la primera propuesta de esta índole para este tipo de dispositivos.
Como algo destacable de esta edición de la feria yo opino que es la movilización por el desarrollo sostenible (dos de los avances comentados fomentan la ecología) como uno de los claros objetivos futuros. En cuanto a la tecnología, de las comentadas, que más me ha llamado la atención ha sido el sistema MiFi ya que, una vez salvada la barrera de llevar la red de redes a cualquier parte del mundo (hablando por hablar), se consigue que ese acceso no esté centralizado en un único punto.



Ref:
http://www.informador.com.mx/tecnologia/2009/78994/6/mobile-world-congress-2009-la-mayor-feria-de-telefonia-celular.htm
http://www.abc.es/20090216/economia-tecnologia/mifi-como-conectar-hasta-200902162031.html
http://en.wikipedia.org/wiki/Android_(operating_system)
http://muycomputer.com/FrontOffice/ZonaPractica/Especiales/especialDet/_wE9ERk2XxDAdds-dSMgnBi7YA8SxVxHlHF0D3GrFQHxiKnX_mo5MJptAU6WzalJ3
http://gizmovil.com/2009/02/mwc-2009-i-mate-project-centurion-el-telefono-con-windows-mobile-mas-pequeno-del-mundo/
http://gizmologia.com/

lunes, 16 de febrero de 2009

Un DSP en tu vida: POD 2.0 de Line6

Para esta actividad de la asignatura PDS comentaré el caso de una unidad de efectos muy utilizada por los guitarristas eléctricos, el POD de la empresa Line6.
Aunque antes se empleaban efectos de guitarra totalmente analógicos y se conseguían grandes resultados (hay vertientes que defienden que incluso con un sonido mejor que cualquier sonido conseguido por un procesado digital, pero eso es otro tema) también resultaban caros debido a que cada efecto que queríamos conseguir requería la utilización de un pedal de efecto diferente (es decir, un nuevo sistema en nuestra cadena de procesado del sonido). Ya cuando los DSPs empezaron a ser potentes y, sobretodo, baratos se comenzaron a crear unidades de procesado de efectos que permitían crear casi cualquier procesado en la señal imitando los pedales analógicos. Como sabemos, al fin y al cabo cada efecto analógico es un filtro, también analógico, y eso se puede modelar de forma digital con los coeficientes de un filtro FIR o un filtro IIR. Es aquí donde reside la ventaja: con un DSP podemos reproducir los coeficientes (estáticos o dinámicos en función del efecto) que resultan de nuestra cadena de efectos y crear así nuestra propia cadena de forma digital.
Retomando la historia inicial, el primer POD vio la luz en el año 1998 de la mano de la empresa Line6 y fue una gran revolución porque, aunque ya existían grandes pedaleras digitales, esta unidad de procesado estaba pensada para la grabación (aunque luego también surgió el formato pedalera) lo que permitía, entre otras cosas, una gran capacidad de modificación de sonidos y la posibilidad de imitar amplificadores comerciales, lo que hacía que los grupos ya no necesitaran grabar la cadena de sonido guitarra-efectos-amplificador-altavoces, sino que con conectar al aparato su instrumento ya lo tenían todo.
El POD que vamos a comentar aquí es el POD 2.0 (una revisión del original). El DSP que utiliza esta unidad es el ADSP - 21065L de la empresa Analog Devices. Aquí podemos ver una imagen del circuito de la unidad y un detalle del propio DSP:
Detalle del circuito del POD 2.0

Detalle del ADSP - 21065L de Analog Devices del POD 2.0

Las características de este circuito son:
  • Familia SHARC (Super Harvard Architechture)
  • Resolución de 32 bits
  • 198 MFLOPs
  • Frecuencia del reloj: 66 MHz (Tiempo de Ciclo: 15 nseg)
  • 66 MMACs
  • Memoria SRAM integrada: 544 Kbits
En el catálogo del fabricante también se adjunta una tabla en la que se puede ver el coste que tienen las operaciones en el procesador. Aquí reproducimos algunas de las mismas:
En el catálogo del fabricante también se adjunta una tabla en la que se puede ver el coste que tienen las operaciones en el procesador. Aquí reproducimos algunas de las mismas:





OperaciónTiempo (nseg)Ciclos de reloj
FFT de 1024 puntos274
18221
Filtro FIR151
Filtro IIR604
División (Y/X)906

Finalmente, las funciones de este DSP dentro del producto están claras ya con lo introducido: mediante filtros digitales, los cuales se encarga el DSP de procesar con la señal de entrada, conseguir hacer efectos de audio (reverb, delay, wah-wah, phaser...) en un dominio digital.

Ref:
http://www.analog.com/en/embedded-processing-dsp/sharc/adsp-21065l/processors/product.html

http://pdf1.alldatasheet.com/datasheet-pdf/view/48856/AD/ADSP-21065L.html

miércoles, 11 de febrero de 2009

DSPs para audio en videoconsolas

Buenas! La primera actividad propuesta para la asignatura Procesadores Digitales de Señal (PDS) consiste en buscar DSPs que se encuentren en videoconsolas, siendo en mi caso particular y en el de otros tres compañeros (visitar Blog de David, Blog de Javi y Blog del Torres) el buscar los procesadores dedicados al tratamiento del audio en las mismas. En este post vamos a comentar una serie de casos concretos acerca de estos DSPs.

Allí por finales de 1993 o principios de 1994 (final de la época de consolas como la Sega Megadrive o la SuperNintendo y a poco de salir la Sony Playstation) vio la luz una consola de Atari, famosa empresa creadora de videojuegos como el clásico Pong o el survival horror Alone in the Dark, llamada Atari Jaguar. Sólo por citar ciertos elementos curiosos de ésta, fue una consola adelantada a su época ya que era capaz de procesar 64 bits (o así se decía) en un momento en que pasábamos de consolas de 16 bits a otras de 32 bits gracias a la utilización de 5 procesadores (entre ellos, el Motorola 68000). Sin embargo, no consiguió un gran hueco en el mercado.

En cuanto al tema del audio en esta consola, además del chip de audio que utilizaba (llamado Jerry y que era capaz de dar una calidad tipo CD), destacaba la utilización de un DSP de 32 bits, con arquitectura RISC (arquitectura con operaciones de proceso muy pequeñas y que se procesan muy rápido) y con una memoria interna de 8 KB.


Ref:

http://www.elotrolado.net/wiki/Jaguar

http://www.museo8bits.com/jaguar.htm

http://es.wikipedia.org/wiki/Atari_Jaguar


Entre 1998 y 1999 vio la luz la Sega Dreamcast, que era bastante mejor que la Playstation y su rival la Nintendo 64. Era una consola de 128 bits y daba un resultado gráfico muy bueno, pero nunca consiguió el gran mercado esperado ya que poco después de salir esta consola vería la luz la Playstation 2 que recogería el testigo, y por tanto los usuarios, de su predecesora.

El sonido en esta consola venía dado por un chip de la compañía Yamaha (AICA) que internamente utilizaba un DSP con una arquitectura RISC (concretamente, uno de la familia ARM el cual es diseñado por la empresa Acorn Computers), con una frecuencia de 22.5 MHz, 32 bits de resolución y capacidad de procesar 64 canales modulados bien en PCM o bien en ADPCM.


Ref:

http://www.museo8bits.com/

http://en.wikipedia.org/wiki/Dreamcast

http://www.elotrolado.net/wiki/Dreamcast


Por último en este post comentaremos la consola que Nintendo sacó al mercado entre 2001 y 2002 como respuesta a la Playstation 2 de Sony: la Nintendo Gamecube. Como datos generales de esta consola, cabe destacar que tenía una calidad de imagen similar a la recién comentada consola de Sega y que era la primera consola en la Nintendo desechaba el uso de cartuchos.

Pasando al tema del sonido, la Gamecube utiliza como base de su sonido un DSP creado por la empresa Macronix con una resolución de 16 bits. Consta de una arquitectura Harvard (como la gran mayoría de DSPs), por lo que posee memoria diferente para datos y para instrucciones, que se distribuyen así:

  • Memoria para datos: 8 KB RAM + 8 KB ROM
  • Memoria para instrucciones: 8 KB RAM + 4 KB ROM

La frecuencia de operación del chip es de 81 MHz, es capaz de procesar 64 canales simultáneamente modulados en ADPCM, y la frecuencia de muestreo a la funciona el sistema es de 48 KHz (calidad DVD).


Ref:

http://www.museo8bits.com/

http://es.wikipedia.org/wiki/Nintendo_GameCube

http://www.nintendo.es/NOE/es_ES/systems/especificaciones_tcnicas_1149.html

lunes, 2 de febrero de 2009

Inaguramos asignatura y sección

Buenas! Con motivo de la necesidad de llevar un blog por parte de la asignatura Procesadores Digitales de Señal (DSPs) intentaremos retomar este blog y darle un poquito de "vidilla", que buena falta le hace.
Nos vemos!

jueves, 1 de enero de 2009

Feliz Año 2009

Buenas a todos! Desde aquí os deseo a los que estéis por ahí que este año que entra os traiga muchas cosillas buenas en general y a los de teleco pocas ICT's, a no ser que sea para cobrarlas.
Os dejo esta estampa que representa de la mejor forma que hay el año nuevo aquí en España:
Nos vemos!