Arquivo

Posts Tagged ‘Programação’

Basic About Synthesizer

abril 12, 2013 4 comentários

Olá Pessoal !

Vocês já se perguntaram como um determinado áudio é sintetizado ?

Pois bem, participei de um curso ministrado pelo professor Steve Everett diretor do  Centro de Pesquisa de Música na Emory University, ele desenvolve vários métodos computacionais para modelar e produzir músicas, minha área de análise em sinais possui pouca relação na produção de áudio, a produção de áudios em si não é um campo que me desperte interesse, mas durante o curso o Steve falou sobre sintetizadores e fiquei curioso em saber como um teclado consegue simular vários tipos de instrumentos …

Cada instrumento musical possui uma determinada sonoridade, você percebe claramente uma grande diferença tonal da mesma nota quando tocada em instrumentos diferentes, por exemplo a nota Lá(A4 – quarta oitava) produz 440Hz em qualquer instrumento seja ele um violão ou em um teclado, se a frequência é sempre a mesma o que faz esta diferença tonal acontecer ?

Temos que lembrar que quando uma nota é tocada diferentes harmônicos acontecem e estes definem qual tonalidade a frequência fundamental vai tomar, ou seja qual corpo ela vai ter, a coleção de harmônicos em conjunto com a frequência fundamental define qual timbre um instrumento tem, lembrando que a Freqüência Fundamental é sempre a frequência com a maior percepção audível, os harmônicos são produzidos por diversos fatores, madeira do instrumento, cordas do instrumento, a cola usada no instrumento, a nota ecoa por toda arquitetura do instrumento que produz um som particular …

Pensando nisso peguei uma nota gravada de um violão e apliquei Fourrier para verificar quais Harmônicos ocorriam, este é um método que descreve o principio básico de como os sintetizadores são feitos, o método que usei recria as frequências e suas respectivas magnitudes a partir de um sinal amostrado, em meus testes o sinal é recriado utilizado Senoide, cada Frequência e Magnitude(Linear) capturado do espectro de magnitude da Transformada de Fourrier é somada formando um sinal complexo, existem outras formas de ondas ( pulso, triangular, quadrada, dente-de-serra), cada uma delas pode ser usada afim de conseguir timbres mais parecidos para determinados tipos de instrumentos , Vejam uma figura que demonstra o tipo de cada onda:

Em meus testes usei a onda “Sine”, escute um exemplo de áudio deste tipo de onda com Freqüência de 1000Hertz:

Conforme novos  Harmonicos são adicionados (Somados) o áudio tende a mudar, vejam na figura a baixo no lado direito você verá o Espectro de Magnitude do Áudio Original e do lado esquerdo o áudio sintetizado, reparem na semelhança dos harmônicos:

D_Guitar

Audio Original:

Audio Sintetizado:

A Nota D  da corda do violão elétrico ficou bem parecida 🙂

Vamos ver como a forma de onda Sine se sai com uma nota lá A4 do piano :

Piano_La

Audio Original:

Audio Sintetizado:

O áudio sintetizado para piano não se saiu muito bem utilizando Senoide, faz sentido já que possui melhores resultados em sinais mais graves !

Até agora vimos tentativas de sintetizar sinais com poucos harmônicos ocorrendo, vamos testar com um sinal bastante complexo com vários harmônicos acontecendo em diferentes magnitudes, vamos tentar sintetizar um áudio com voz :

VOZ

Audio Original:

Audio Sintetizado:

Por ser um sintetizador bem básico feito em duas horas no matlab até que se saiu bem 🙂

Não tive tempo de organizar e limpar o código,  se houver interesse dos leitores neste tipo de “brincadeira” posso liberar o source!

[]’s

Eng Eder de Souza

Anúncios
Categorias:DSP, Programação Tags:,

Audio spectrum Analyzer

fevereiro 7, 2013 5 comentários

Oi Pessoal !

Minha história com o Analisador de Espectro de Frequências é bem antiga, tudo começou em meados da década de 90 eu era praticamente uma criança,  me lembro claramente que nesta época um player de áudio dominava os computadores com windows 95 o clássico winamp, pois bem eu me deliciava acompanhando  as músicas junto com as “barras” que se moviam conforme a música evoluía, associava cada batida , cada voz, cada timbre, com o então na época chamado por mim “barras do winamp’  e em minha mente tentava entender como  aquelas “Barras” pareciam literalmente dançar com a música. A curiosidade aumentou quando meu pai comprou um micro system da aiwa ele tinha uma grande tela frontal com um analizador de espectro, o tempo foi passando e fui entendendo como um analisador de espectro de frequência funciona !

Na realidade tudo é bem simples, o que “eles” fazem é separar as bandas das frequências discretas retornadas pela transformada de Fourier, lembrando que a faixa de frequência possível para análise sempre dependerá da taxa de amostragem do sinal de áudio, claro estes visualizadores de espectros (Aiwa, Sony, winamp, etc) possuem apenas um caráter estético e muitos deles não mostram na realidade as frequências precisas e onde realmente elas estão acontecendo!

A faixa de frequência audível de um ser humano é de 20hz até 20Khz, então para construir um analisador de espectro que atenda as características audíveis do ser humano teremos que ter um sinal de áudio com uma taxa de amostragem igual ou superior 44100hz, seguindo o Teorema de Nyquist “A frequência de amostragem de um sinal analógico, para que possa posteriormente ser reconstituído com o mínimo de perda de informação, deve ser igual ou maior a duas vezes a maior frequência do espectro desse sinal“, então sé temos uma frequência de amostragem de 44100 e dividir por 2 -> 44100/2 = 22050, opa este valor atende a maior frequência audível do ser humano, lembre, se você trabalhar com taxa de amostragem menor poderá estar perdendo informações(Análise) de frequências que  estão em nosso campo audível, pronto já sabemos qual é a maior frequência que nosso analisador de espectro  é capaz de alcançar  é de 22050hz, agora precisamos decidir qual será a ordem de resolução da  frequência, quanto menor a ordem mais apurado seu analisador será, porém exige muito mais processamento ao computar a transformada de fourier, estou utilizando 4096 pontos isto me dá uma resolução de ordem = 10,7666015625, isto quer dizer que podemos estar perdendo em algum ponto a precisão das frequências capturadas na ordem perto de 11hertz, o que considero bem aceitável para o que precisamos aqui, ao computar a Transformada Fourier precisamos calcular a raiz quadrada da soma do quadrado dos seus componentes reais e imaginários e isso nós dá a magnitude do coeficiente de FFT para cada frequência.  OK com isso agora sabemos que nossa menor frequência possível de ser capturada será de  44100/ 4096 = 10,7666015625hz e a nossa maior frequência possível de ser capturada será de  22050hz. Legal lembre-se que ao computar a transfonada de fourier utilizando 4096 pontos teremos que sempre remover a segunda metade dos resultados pois é apenas um espelho dos resultados da primeira metade, então como resultado teremos 4096 /2 = 2048 frequências discretas retornadas, com isto você saberá quais serão todas as suas 2048 bandas de frequências:

1 -> 10,7666015625000

2 -> 21,5332031250000

3 -> 32,2998046875000

4 -> 43,0664062500000

5 -> 53,8330078125000

2047 -> 22039,2333984375

2048 – > 22050

Reparem que entre a mínima e a máxima ainda estamos dentro da faixa audível humana !

O retorno destes 2048 pontos já é o seu espectro de frequência, você ainda pode converter os resultados em escala logarítmica  ou manter na escala linear, vai depender de sua necessidade ou seja se a amplitude do sinal precisa estar definida em decibéis ou não,  fiz um protótipo em python, na realidade o protótipo funciona como um player de arquivos .wav com canais em  mono, o protótipo funciona apresentando o Espectro de Frequência em real time  enquanto um áudio é executado,  veja o teste da escala audível humana !

Legal Funciona direitinho 🙂

Veja ele funcionando com uma música sendo tocada !

É bastante interessante analisar e ver como certas notas produzem harmônicos que ressoam em diferentes frequências que na realidade define a característica do timbre !

Até a próxima !

Eder

AutoTune

maio 25, 2012 1 comentário

Olá pessoal!

AutoTune faz a correção dos pitches automaticamente em um sinal de áudio,  e claro a industria da música nunca foi a mesma desde sua invenção !

Hoje em dia ele é amplamente utilizado em músicas populares, certamente você já deve ter notado um efeito diferente na voz dos cantores note-americanos, eles utilizam o AutoTune excessivamente em algumas músicas …

Chegamos a um nível tao elevado que hoje em dia existe a possibilidade de se mudar o Pitch em qualquer pedaço do frame de um sinal, isso permite por exemplo que ao tocar um piano se em algum momento uma nota soar errado não precisamos mais descartar a gravação e podemos alterar o valor desta nota para a forma correta .

Grosseiramente falando o AutoTune permite que qualquer pessoa fique afinada ao cantar, costumo fazer a seguinte comparação: “Hoje em dia todas as revistas usam photoshop nas modelos de capa de suas revistas para corrigir imperfeições, do mesmo modo os produtores utilizam do AutoTune ou Pitch Correction para garantir melhor qualidade no produto final”.

Sempre sonhei em construir um AutoTune em real-time para diversão, alguns dos motivos que sempre me impediram de fazer isso em Python é a necessidade de um intensivo processamento nas operações, a performance em Python não é um ponto forte da linguagem, dois pontos cruciais para o desenvolvimento do AutoTune exigem cálculos que consomem bastante tempo do processador, tornando a latência para uso em real-time impraticável. Primeiro precisamos de um excelente algoritmo que faça Pitch detection após encontrar as frequências precisaremos força-las a mudar quando necessário utilizando Pitch Shift , eu testei alguns modelos em Python Puro e a latência em cada bloco de frames ficou muito alto.

Sempre que preciso de muito desempenho apelo para a linguagem C, e para a minha sorte encontrei um código escrito por Tom Baran, Olhei o source e pensei vou portar como módulo para python, e assim fiz um módulo chamado PyAutoTune, Tom Baran captura o sinal em float 32Bits para conseguir um resultado mais apurado na detecção do Pitch, o desempenho ficou melhor do que esperado a latência é imperceptível, a instalação do módulo é simples e pode ser feita com um simples “python setup.py install”, escrevi dois sources simples para exemplificar como utilizar o módulo, você pode encontra-los na pasta Exemples.

Source: https://github.com/ederwander/PyAutoTune

Eng Eder de Souza

Categorias:DSP, Programação Tags:,

Desafio: Hide information in audio files

Já faz muito tempo que comentei sobre Esteganografia aqui no blog, na época estava testando diferentes meios de se esteganografar imágens dentro de arquivos de áudio, isso faz tanto tempo que nem me lembrava mais, porém neste fim de semana estava procurando em meio a minha bagunça um antigo pendrive com alguns arquivos de áudios, e olha o que encontro ?

Um Arquivo chamado “FantasiaSteganografado.wav”, me lembrava vagamente que por volta do ano de 2010 tinha criado um arquivo de áudio com informação binária oculta, escutei o arquivo e o áudio estava normal, logo acima um outro arquivo “FantasiaOriginal.wav” escutei o arquivo e também normal, os dois arquivos possuem exatamente o mesmo tamanho 15,7MB, ambos também possuem 3,57 Minutos, só tem um detalhe, dentro de um deles existe uma imágem, fiquei tentando lembrar mas nada me vinha em mente, corri entao para um antigo repositório de códigos feitos por mim e “bannnnn” lá estava todo o código, ao olhar tudo se esclareceu um repentino flash como um grande clarão me fez relembrar :-);

Na Época estava muito curioso em saber como os mal intencionados conseguiam colocar informações ocultas dentro de arquivos de áudio, curioso como sempre me lembrei que lí alguns artigos para entender e construir veja alguns interessantes aqui e aqui;

O DCT(Transformada Discreta de Coseno) é amplamento utilizado como modelo de compressão, e claro os espertinhos utilizam este modelo para inserir (injetar) informações binárias dentro de arquivos de áudio ou imágens, parece complexo mas o código é muito simples e por motivos de segurança não irei postar como injetar estes dados;

Estou divulgando o arquivo Original e o Esteganografado por mim, então lá vai um desafio você consegue recuperar a imágem dentro do arquivo de áudio ?

Dica:

  • Compare os dois arquivos e encontre o inicio e o fim dos frames com diferença;
  • Eu inseri uma imágem .bmp em preto e branco de tamanho 380 x 110; use este tamanho para reconstruir sua matriz de pixels;

Você se acha capaz de reconstruir minha imágem ?? baixe os dois arquivos aqui:

Use a linguagem que melhor lhe atender !

Eng Eder de Souza

Categorias:DSP, Programação Tags:,

Python Smith Trigger for frequency analysis

fevereiro 29, 2012 Deixe um comentário

Olá Galera estava eu olhando alguns sources para análise de frequências quando me deparo com algo inesperado, seria possível extrair frequências de um sinal aplicando o modelo descrito pelo cientista Otto H. Schmitt em 1934, e pelo que vejo realmente parece ser possível, olhando com calma o códio em C++ de Mario Lang em http://delysid.org/tuneit-0.3.tar.gz, percebi que ao estimar o período do sinal seria possível calcular a frequência fundamental, não é muito robusto mas é extremamente rápido e pode ser uma alternativa para captura de frequências em áudios que possuam sinusoides puras.

Eu compilei o source em linux para testes e vi o quanto ele era simples, e então portei o algoritmo para Python.

Mais detalhes sobre http://en.wikipedia.org/wiki/Schmitt_trigger

Source aqui: https://gist.github.com/1944257

Categorias:DSP, Programação Tags:,

Google Speech + Python + Asterisk

janeiro 16, 2012 82 comentários

Olá Povo que acompanha o blog 🙂

Ainda falando sobre reconhecimento da fala utilizando o google, enviei uma mensagem na lista AsteriskBrasil onde expressava minhas idéias de como utilizar o serviço de reconhecimento de fala do google em tempo real com o Asterisk,  já se passou quase uma semana sem se quer um suspiro de interesse, então resolvi seguir sozinho !

A idéia é utilizar EAGI para controle do canal de entrada de áudio em conjunto com o File Descriptor, o Asterisk entrega o áudio em formato RAW diretamente no File Descriptor 3, então podemos utilizar esta informação da maneira que acharmos conveniente, para este caso a manipulação se torna muito prática, o que me desprende totalmente das APP’s prontas para gravações inseridas no Asterisk Ex. Record, nada melhor do que ser livre para voar, é claro várias análises se tornam possíveis com isso e o leque de aplicações possíveis se tornam infinitas.

Você certamente já pensou em ter um PABX com funcionalidade para reconhecimento da fala então certamente irá precisar partir para soluções cooporativas e caras certo???

A Partir de hoje não !

Tudo que irá precisar é ter internet para acessar o google o Script possue algumas dependencias:

https://github.com/ederwander/Asterisk-Google-Speech-Recognition/blob/master/README

Estou usando novamente o módulo audiolab para efetuar o encode do áudio em FLAC, caso exista alguma dificuldade para a instalação deste módulo poderei pensar em adaptar o código para uso externo do sox ou flac.

Como ele funciona?

  • Atende uma ligação
  • O usuário tem no máximo 10 segundos para efetuar a fala
  • Caso nao encontre atividade de voz encerra com timeout
  • Estratégia para atividade de voz verdadeira para os seguintes valores  RMS > 15 e Pitch > 75
  • Se atividade for encontrada o usuário poderá falar por no máximo 10 segundos
  • O script verifica blocos em tempo real com amostras de 1 em 1 segundo e verifica se a fala cessou
  • Caso sim o script interrompe a gravação automáticamente e envia o que foi gravado para o google
  • Caso não o script continua o seu curso até seu máximo de 10 segundos
  • Apos encontrada a resposta da fala no google o script seta a variável “GoogleUtterance”

 

Telas:

 

 

Source em:

https://github.com/ederwander/Asterisk-Google-Speech-Recognition

Simple VAD (Voice activity detection) Based in Threshold Energy

janeiro 10, 2012 5 comentários

Fim das Férias…

Post passado mostrei um exemplo simples de como integrar o Voice Search do google usando Python, comentei que seria interessante desenvolver um VAD para automatizar o processo etc, e então no final do ano passado desenvolvi um novo protótipo, escrevi algo bem simples para adquirir o conceito, e em cada passo da implementação me deparava com um problema, a maneira mais básica para identificar a atividade de sons é por meio do RMS (Root mean square), com ele conseguimos medir a magnitude do sinal, isso nos dá a possibilidade de calcular o volume em um grupo de frames no sinal e o pesadelo começa aqui como encontrar um valor global para definir o que é silencio ou não ???

As Variáveis são muitas e mais uma vez qualquer componente externo pode atrapalhar nos resultados, Qualidade do Microfone,  Nível do Volume e Boost configurados para o seu Microfone, etc.

Pensando em amenizar o problema inclui um Simples Extrator de Tom para tentar encontrar frequências maiores do que 80 Hz, a voz humana é capaz de reproduzir sons que vão de 80 até 1100Hz, para trabalhar em real-time o desempenho é fundamental então parti para um extrator de Freqüência bem veloz apesar de não funcionar com muita eficiência em ondas complexas utilizar zero-crossing se torna útil para este projeto.

No projeto passado para efetuar as conversões em .flac utilizei a biblioteca audiolab, o audiolab é excelente para Linux, mas neste novo projeto iniciei os testes em solo Windows e tive muitas incompatibilidades, resolvi então utilizar um binário externo para efetuar os encodes (flac.exe) você pode baixar no seguinte link.

Como o protótipo funciona?

  • Ao Executar ele fica escutando o sinal de áudio do microfone
  • Ao perceber atividade de voz inicia a gravação
  • Ao iniciar a gravação continua analisando os últimos blocos dos frames para tomar a decisão se a fala cessou ou não
  • Se cessou finaliza a entrada de áudio converte para .flac e envia para o google neste caso o framerate já esta no formato correto pois a gravação feita pelo microfone já se encontra em 16000.

Para o meu caso consegui melhores resultados configurando meu microfone no windows com 100% de nível e com boost de +10dB

Tela:

Source:

https://gist.github.com/1589531

Eng Eder de Souza

Accessing the Google Speech API + Python

novembro 6, 2011 26 comentários

Olá Pessoal…

Se você possue um iphone 4S já  ouviu falar do SIRI, ele é um assistente pessoal que lhe auxilia respondendo questões, tudo isso é feito por meio de Voz utilizando-se o reconhecimento da Fala, suas perguntas são transcritas em texto e analisadas pelo Siri  que lhe responde por meio de um TTS (Text-To-Speech) , desenvolvedores do Android logo apareceram com um rival chamado de IRIS (Intelligent Rival Imitator of Siri), quando se utiliza destas aplicações sentimos que algo mágico acontece, como ambos reconhecem com tamanha precisão uma frase inteira?? Certamente ambos os métodos possuem modelos baseados em Hidden markov model (HMM), algo que demanda muito tempo, pesquisa e estudo para classificar padroes previamente treinados.

Mas espere os desenvolvedores do IRIS dizem que a aplicação para o Android foi feita em apenas 8 horas de trabalho, humm, olhando mais a fundo você logo percebe que o aplicativo acessa a API do google para reconhecimento de fala, até então este recurso do google chamado de “Voice Search” disponível apenas para navegadores Chrome funciona como um complemento onde se disponibiliza um ícone (microfone) nos campos de busca do navegador para efetuar qualquer tipo de procura utilizando a fala.

Claro que os mais observadores logo pensam “um complemento é capaz de fazer tudo isso??”, mas é claro que não, ele apenas grava o sinal capturado pelo microfone e envia para um servidor central do google. Tudo é gravado em um formato .flac com um sample rate de tamanho 16000.

Fiz algo bem simples em python nao gastei nem 2 horas de brincadeira o script pega um arquivo pré-gravado .wav converte para o frame rate utilizado pelo google de 16000, logo após converte o arquivo em formato .flac, envia para o google e pega a resposta da frase ou palavra que você falou no arquivo. Quiz deixar o scrpit o mais independente possível sem precisar de programas externos para conversões.

O proximo passo é fazer tudo isso em realtime sem necessitar de arquivos pré-gravados, o correto é fazer um algoritmo para VAD (Voice activity detection) que inicia o processo de gravação do audio em realtime quando alguma atividade de voz é encontrada, assim será necessário sempre verificar a energia do sinal para saber o momento que a uma palavra ou frase acaba para encerrar o processo de gravação, quem sabe se tiver tempo posso escrever, por enquanto fiquem com a minha primeira versão.

Source em:

https://gist.github.com/1342497

Update Python Google Speech API and VAD here !

Eng Eder de Souza

Categorias:DSP, Programação Tags:,

SHS Pitch Track

outubro 26, 2011 Deixe um comentário

Em 1988 Dik J. Hermes publicou um artigo denominado “Measurement of pitch by subharmonic summation“, com uma taxa de erro de 2,5% é considerado um método robusto para extração de Frequencias, Hermes descreve esta técnica como sendo a soma dos sub harmonicos encontrados em um sinal realizando uma análise baseado em um modelo de compressão do espectro. SHS se aplica pela seguinte formula:

Simulando o artigo descrito por Hermes…

Em meus testes estou assumindo :

  • Fator de Compressão = 0.84
  • MaxFrequency = 1000
  • MinFrequency = 50
  • MaxSubharmonics = 15

Algoritimo de Simulação:

  • Criar um sinal de 200 Hertz com tamanho de 400 ms;
  • Pegar os primeiros 10 ms de amostra deste sinal equivalente a 100 amostras;
  • Criar uma Janela (Hamming);
  • Multiplicar 10 ms de sinal pela janela criada;
  • Criar 156 amostras de zeros;
  • Preencher o sinal com 156 zeros no final da amostra para obter 256 ms;
  • Aplicar Fourrier para pegar o espectro de amplitude do sinal em uma janela de 1250;
  • Melhorar o sinal do espectro de amplitude ;
  • Suavizar o sinal do espectro de amplitude ;
  • Aplicar interpolação cubica no sinal suavizado com 48 pontos por oitava;
  • Apos a interpolação cúbica pegar o tamanho do vetor das frequencias criadas;
  • Criar um arco-tangente com o mesmo tamanho do vetor da interpolação cubica;
  • Calcular a multiplicação entre o arco-tangente e a interpolação cúbica;
  • Calcular a somatória dos subharmonicos pela formula SHS;
  • Encontrar o ponto máximo após a somatória.

Resultado de todos os passos descritos:

Nada melhor do que ver os passos, então enquanto criava meu ambiente de simulação resolvi plotar os  principais passos para melhor visualização.

Aqui esta:

Deste modo podemos notar que ao efetuar os cálculos pela formula SHS através dos resultados adiquiridos pelo espectro de amplitude que todos os pontos contribuem de certa forma para compor relações harmónicas.

Certamente um dos métodos mais robustos para captura de frequencias em sinais com ondas complexas.

Eng Eder de Souza

Categorias:DSP, Programação Tags:,

Experimental Guitar Tuner

setembro 9, 2011 Deixe um comentário

Olá Pessoal…

Ano passado dei uma rápida olhada em alguns métodos utilizados por afinadores de guitarra, e me parece existir sempre pros e contras em cada método, existe sempre muita discussão ao se utilizar Fourrier por afinadores, dependendo do tamanho da janela da amostra as frequencias mais baixas podem ser descartadas, a idéia então seria aplicar filtros no sinal para tentar contornar este problema o que muitos dizem ser o mesmo que “matar uma formiga com uma bazuca” ou seja uso desnecessário, alguns métodos baseados em tempo não trabalham bem com ondas complexas, no caso de uma corda de guitarra soando seria um problema pois ocorrem diferentes harmonicos, mesmo sabendo destes problemas resolvi testar um método chamado Average magnitude difference function (AMDF):

Parecido com a autocorrelação, onde se calcula a diferença de si mesmo em uma versão um pouco defasada…

Como este script foi construido para uso próprio pouco me importei com o desempenho, estou utilizando uma janela de coleta de 1024 frames o que me parece ser o suficiente, o cálculo de várias funções consome algum tempo causando um delay de alguns segundos para reconhecimento da nota, em contrapartida a detecção das notas se comporta muito bem com ruido no sinal.

O script em python funciona em real-time pelo microfone ou conectando algum instrumento em sua entrada de audio no computador, andei lendo também sobre métodos cepstrais utilizados para afinar instrumentos, me parece ser uma melhor escolha do que esta.

Source:

https://gist.github.com/1342086

Eng Eder de Souza

Categorias:DSP, Programação Tags:,

Fundamental Frequency Estimation Methods

junho 15, 2011 6 comentários

Oi Pessoal…

Eu escrevi algo bem superficial neste blog sobre Frequencia fundamental (F0), recebi alguns emails perguntando sobres os métodos utilizados para se estimar as frequencias dentro de arquivos de áudios, como aplicar estes métodos e quais deles possuem melhor desempenho!

Testei os seguintes métodos:

  • Transformada de Fourrier
  • Zero Crossing
  • Auto-correlação

Auto-Correlação como esperado possue o pior desempenho, aplicar correlação em um sinal de áudio para depois encontrar o maior valor dentro dos dados correlacionados toma muito tempo de processamento!

Transformada de Fourrier possue um desempenho melhor comparado ao método anterior, submeter o sinal a transformada de fourrier é uma boa alternativa  para encontrar frequencias diversas dentro de arquivos de áudios.

Zero Crossing o grande campeão chega a ser quinze (15) vezes mais rápido do que a auto-correlação e pensando friamente é muito mais fácil e rápido encontrar quais são os pontos de variações dentro do sinal, sem submeter o sinal a fourrier.

Tela dos testes:

Source:

from __future__ import division
from numpy.fft import rfft
from numpy import argmax, mean, diff, log, fromstring
from matplotlib.mlab import find
from scipy.signal import fftconvolve, kaiser
from time import time
import sys
import wave

def parabola(data,x):

v1=1/2*(data[x-1]-data[x+1])/(data[x-1]-2*data[x]+data[x+1])+x
v2=data[x]-1/4*(data[x-1]-data[x+1])*(v1 – x)
return (v1, v2)

def Fundamental_Frequency_zero_crossing(signal, fs):

values = find((signal[1:] >= 0) & (signal[:-1] < 0))
crossingValues = [i – signal[i] / (signal[i+1] – signal[i]) for i in values]
return fs / mean(diff(crossingValues))

def Fundamental_Frequency_fft(signal, fs):

janela = signal * kaiser(len(signal),100)
f = rfft(janela)
i = argmax(abs(f))
real = parabola(log(abs(f)), i)[0]
return fs * real / len(janela)

def Fundamental_Frequency_autocorrelation(signal, fs):

correlacao = fftconvolve(signal, signal[::-1], mode=’full’)
correlacao = correlacao[len(correlacao)/2:]
d = diff(correlacao)
inicio = find(d > 0)[0]
pico = argmax(correlacao[inicio:]) + inicio
picox, picoy = parabola(correlacao, pico)
return fs / picox

filename = sys.argv[1]
spf = wave.open(filename,’r’)
signal = spf.readframes(-1)
signal = fromstring(signal, ‘Int16’)
fs = spf.getframerate()
print ‘\n ** Arquivo Aberto ** “%s”\n’ % filename
print ‘Calculando a Frequencia por FFT:’,
start_time = time()
print ‘%f Hz’   % Fundamental_Frequency_fft(signal, fs)
print ‘Tempo: %.3f s\n’ % (time() – start_time)
print ‘Calculando a Frequencia por zero crossing:’,
start_time = time()
print ‘%f Hz’ % Fundamental_Frequency_zero_crossing(signal, fs)
print ‘Tempo: %.3f s\n’ % (time() – start_time)
print ‘Calculando a Frequencia por autocorrelação:’,
start_time = time()
print ‘%f Hz’ % Fundamental_Frequency_autocorrelation(signal, fs)
print ‘Tempo: %.3f s\n’ % (time() – start_time)

Até

Eng Eder de Souza

Categorias:DSP, Programação Tags:,

Audio FingerPrint em Python

Audio  Fingerprint é o ato de reconhecer um determinado audio dentro de um amplo número de sons…

Este conceito é utilizado pelo Shazam, que tem o poder de lhe retornar o nome de uma música com uma pequena amostra a partir de qualquer pedaço de uma canção.

Ao ler um post escrito por Roy Van Rijn  decidi tentar escrever algo semelhante seguindo todos os passos descrito em seu blog.

Aproveitei um pedaço de um projeto antigo  esteganografia-spectrograma-em-arquivos-de-audio reescrevi minha função para visualizar spectrogramas para melhor se adaptar ao novo código, para testar o novo spectrograma peguei dois arquivos fract.mp3 e mandel.mp3 eles podem ser encontrados neste site.

Primeiro converti os dois arquivos em .WAV os deixando em Mono, o mpg123 me ajudou neste trabalho de coversão!

E aqui esta os resultados do meu Spectrograma:

Para o Mandel.wav


E agora o fract.wav

Legal minha função para mostrar o Spectograma funciona perfeitamente!

Vamos agora para o próximo passo descrito por Roy Van Rijn, encontrar as maiores frequencias dentro de cada tempo de uma música.

Com esta etapa concluida eu consigo montar uma “Constelation Map” contendo os maiores pontos (frequencias) dentro de um spectrograma, para demonstrar eu plotei o resultado da música inteira “Rihanna feat David Guetta – Whos That Chick(Radio Edit)”

Resultado mostrando a “Constelation Map” para a música Rihanna feat David Guetta – Whos That Chick(Radio Edit):

Todos os pontos em vermelho são onde encontrei as maiores frequencias correspondentes a cada tempo dentro da canção!

O proximo passo é indexar estes valores dentro de um arquivo .txt por exemplo!

Em meu arquivo .txt tenho:

[142, 393, 578, 1802]
[71, 378, 400, 1725]
[52, 204, 406, 753]
[51, 205, 425, 773]
[137, 392, 697, 833]
[140, 201, 660, 773]
[53, 300, 666, 776]
[51, 342, 497, 701]
[50, 200, 414, 731]
[57, 367, 697, 833]
[85, 223, 690, 783]
[55, 234, 697, 845]
[50, 204, 403, 773]
[121, 238, 571, 714]
[52, 370, 544, 721]
[132, 325, 463, 794]
[164, 226, 515, 712]

.

.

.

Indexei cerca de 1000 canções eu precisei converter todas para .wav sempre em mono!

Lol após isso é importante colocar todos estes valores dentro de uma grande hash table para uma melhor performace.

E vamos ao grande teste pegar um pedaço de qualquer canção indexada e ver se conseguimos o retorno correto !

Vamos tentar 18 segundos de áudio bem sujo e ver o resultado!

Primeiro tentei este pedaço Chick_noise2.wav

Ual funciona !

O som está bem degradado e sujo, decidi pegar um som gravado do microfone de meu smart phone quando estava dentro de um shopping escutando um som ambiente, ajustei para obter os acertos comparando menos frequencias pois o áudio estava deplorável a gravação é esta Clipe som 03.wav

Resultado:

Funcionou !

Vamos tentar outra música também gravada do microphone de meu smart phone dentro do shopping Clipe som 06.wav

Resultado:

Funcionou novamente!

Estas demonstrações são de arquivos com áudio bem degradados e sujos, podemos perceber que em todas elas temos um grande nível de ruido e mesmo assim funciona!

Um agradecimento especial ao Roy que postou em seu blog todos os passos para este feito!

Eng Eder de Souza

Frequencia Fundamental

abril 28, 2010 1 comentário

Bom Vamos lá, o tópico de hoje é relacionado a processamento de sinais, um complexo emaranhado de técnicas matemáticas, o peso da bagagem teórica sobre o assunto se torna extremamente massante, vamos simplificar tudo isso passando sobre o caminho das pedras.

Existem vários métodos para descobrir a Frequencia Fundamental (F0) http://en.wikipedia.org/wiki/Fundamental_frequency

Os Mais comuns são:

*Achar a Estimativa da Frequencia com o uso da autocorrelação
*Achar a estimativa da Frequencia com o uso da Transformada de Fourrier e Interpolação Quadrática
*Achar a Estimativa da Frequencia com o uso de zero crossings

Mas se você quer construir algo rápido, apenas injetar um sinal de audio via Microfone ou ler um Arquivo .Wav para conseguir a Frequencia do sinal injetado simplefique  tudo utilizando o http://pypi.python.org/pypi/SoundAnalyse, SoundAnalyse é o modulo em python para conseguir isso e muito mais.

Testei o SoundAnalyse em solo Windows para tal instalar os seguintes componentes

Instalar o Python
Download em http://www.python.org/download/

Instalar o MinGW
Download em http://ufpr.dl.sourceforge.net/sourceforge/mingw/MinGW-5.1.4.exe

Instalar o numpy e o pyaudio
Download em http://www.lfd.uci.edu/~gohlke/pythonlibs/

Instalar o SoundAnalyse
Download em http://pypi.python.org/packages/source/S/SoundAnalyse/SoundAnalyse-0.1.1.tar.gz

colocar o compilador MinGW ao Path do Windows
C:\>set PATH=C:\MinGW\bin;%PATH%

Para Instalar o SoundAnalyse de execute

C:\Python26\SoundAnalyse-0.1.1>C:\Python26\python.exe setup.py install

Pronto todos os módulos dependentes instalados Agora vamos ao Source

import sys
import os
import time
import numpy
import pyaudio
import analyse
 
#Eng Eder de Souza – Frequencia Fundamental

pyaud = pyaudio.PyAudio()
Microfone=sys.argv[1]

try:
    stream = pyaud.open(
    format = pyaudio.paInt16,
    channels = 1,
    rate = 44100,
    input_device_index = int(Microfone),
    input = True)
except:
    print “Falha ao Encontrar Dispositivo”
    sys.exit()
Frequencia = “”
while True:
  
    try: 
       pegaentrada = stream.read(1024)
    except:
        print “%.0f Hz” %Frequencia
        os.system(“cls”)
   
    dados = numpy.fromstring(pegaentrada, dtype=numpy.int16)
    if analyse.detect_pitch(dados):
          print “%.0f Hz” %analyse.detect_pitch(dados)
          os.system(“cls”)
          Frequencia = analyse.detect_pitch(dados)
        
    else:
        
         print “%.0f Hz” %Frequencia
         os.system(“cls”)

Para rodar Execute

python.exe mic.py 1

Altere o Valor do Device até encontrar sua entrada de Microfone no meu caso é “1” !!

Tela  de  teste para Identificação de Audio em 100 Hertz


[]’s
Eng Eder de Souza

Categorias:DSP, Programação Tags:

Monitorando tudo Com Gráficos RRDTOOLS

Pessoal quanto tempo, nao abandonei o Blog não !

Eu que pensei que este ano iria ser mais tranquilo, doce ilusão, vamos lá estou aqui para falar de uma ferramenta essencial para quem quer gerar gráficos, o céu é o limite, RRDTools é uma das maneiras mais práticas de se construir um database com informações alimentadas sobre qualquer “coisa” do planeta se você deseja criar gráficos com intenção de manter estes dados para fins de monitoramento ou apenas como um histórico rrdtools pode lhe ajudar com essa sua necessidade, fácil de se manipular apresenta suporte em várias linguagens (php, perl, python, etc) vai ao gosto do freguês, mas para mim o grande lance é poder customizar tudo construir meus próprios gráficos criar meus scripts para capturar e armazenar informações em um banco RRD para depois simplesmente plotar seu conteúdo gerando tudo isso em uma imagem.

Segue uma tela de um gráfico gerado via RRDTOOLS neste caso fiz um script na qual captura informações que tenho interesse neste exemplo estou pegando dados do meu mail.log (postfix), armazeno tudo isso de tempos em tempos no database RRD e depois ploto o conteúdo em imagem!

Vejam como os dados se apresentam em modo gráfico :

Logo irei postar um source em perl na qual estou terminando para mostrar tráfego de ligações do FreeSwitch espero ter tempo de terminar isso logo !!

Até a proxima

Eng Eder de Souza

Categorias:Programação Tags:

O Poder do FreeSwitch

fevereiro 11, 2010 2 comentários

Ano passado descobri como o novo FreeSwtich é prático, simples e rasteiro, bem mais organizado que o Asterisk e o que é melhor forte como rocha!

Tarefas que antes eram complicadas de tratar foram simplificadas, Ura’s complexas podem ser feitas de maneira simples !

Em meus testes percebi o quando é fácil e agradável construir URAS com a linguagem LUA

Segue um Source na qual pode ser aplicado para qualquer finalidade:

–Estrutura
–URA que permite teclas de 1 a 5 “tres” tentativas em caso de teclas erradas (0, 6, 7, 8 ou 9) após isso hangup
–Digite 1 para falar com RH
–Digite 2 para falar com compras
–Digite 3 para falar com Diretoria
–Digite 4 para falar com Administração
–Digite 5 para falar com Eventos
–ou aguarde na linha para ser atendido

session:setAutoHangup(false)
digito = “Eng Eder de Souza”;
contador =0;
while (session:ready() == true) do

     while ((digito >= “6”) or (digito <= “0”)) do
        contador = contador + 1;
        freeswitch.consoleLog(“info”, “contando as entradas = “.. contador ..”\n”);
        if digito == “” then
           freeswitch.consoleLog(“info”, “vc nao digitou nada “.. digito ..”\n”);
           session:execute(“transfer”,”9000″);
           break;
        end
        if contador == 3 then
           session:hangup();
           break;
        end
        digito = session:playAndGetDigits(1, 1, 1, 10000, “#”, “/usr/local/freeswitch/sounds/URA_INICIO.wav”, “”, “\\d+”);
     end
     if (digito == “5”) then
         freeswitch.consoleLog(“info”, “tecla digitada: “.. digito ..”\n”);
         session:execute(“transfer”,”9000″);
     end
     if (digito == “4”) then
         freeswitch.consoleLog(“info”, “tecla digitada: “.. digito ..”\n”);
         session:execute(“transfer”,”4444″);
     end
     if (digito == “3”) then
         freeswitch.consoleLog(“info”, “tecla digitada: “.. digito ..”\n”);
         session:execute(“transfer”,”3333″);
     end
     if (digito == “2”) then
         freeswitch.consoleLog(“info”, “tecla digitada: “.. digito ..”\n”);
         session:execute(“transfer”,”2222″);
     end
     if (digito == “1”) then
         freeswitch.consoleLog(“info”, “tecla digitada: “.. digito ..”\n”);
         session:execute(“transfer”,”1111″);
     end

end

Principios para identificação de caracteres em Python

fevereiro 8, 2010 4 comentários

Olá Galera,

No meu último post descobri como é agradável brincar com manipulação de imagens em Python (PIL),  então começei a imaginar como aplicar isso em algo para melhor ser aproveitado, no mesmo momento me veio a cabeça  “pq não identificar caracteres ??”

Mas nada na vida é tão simples como pensamos ser, a principio me perguntei “como pegar letras de uma palavra separadamente?” muitas perguntas  hahaha então descobri que antes de iniciar qualquer método teria antes que separar as letras de uma palavra para só assim avançar …

A idéia Seria uma palavra sem firulas em uma font black e em um fundo branco, assim poderia abrir esta imagem procurar pela ocorrencia da cor mais escura e quando a encontrasse eu estaria em uma letra da palavra assim eu poderia pegar a localização para depois iniciar a parte mais avançada do script segue o source que faz a brincadeira …

Imagem Original para os meus testes:

Então Aplicando na prática temos:

Compartilhando o source:

#Eder de Souza
#Encontrar Letras

from PIL import Image
import ImageFont, ImageDraw, ImageOps

im2 = Image.open(“eder.jpg”)

letraini = False
achouletra=False
inicio = 0
fim = 0
letras = []
for y in range(im2.size[0]): 
  for x in range(im2.size[1]): 
    pixel = im2.getpixel((y,x))
    r,g,b = pixel
    color = (r + g + b) / 3
    if color < 90:
      letraini = True
  if achouletra == False and letraini == True:
    achouletra = True
    inicio = y
  if achouletra == True and letraini == False:
    achouletra = False
    fim = y
    letras.append((inicio,fim))

  letraini=False

draw = ImageDraw.Draw(im2)

for y in (letras):
    inicio,fim = y
    draw.rectangle((inicio, 0, fim, (im2.size[1]-1)), outline=(16, 152, 22))
im2.save(“output.jpg”)
print “verifique arquivo de saida”

Logo Postareis mais testes quando tiver tempo

Att,

Eng Eder de Souza

Computação Gráfica Python em ação

fevereiro 4, 2010 3 comentários

Estava eu deitado sem nada para fazer !!

A parte mais complicada foi alinhar os pixels na tela.

Funciona da seguinte maneira abrimos uma imagem capturando cada pixel dela para depois converter em ascii, o RGB de retorno é substituido por um caractere após a média…

Resultado da brincadeira !!

Imagem Original

Convertendo para Ascii

##############################################################

Imagem Original

Convertendo para ascii

Source para quem gosta de brincar:

###Eng Eder de souza
##03/02/2010
from PIL import Image
import sys

arquivo=sys.argv[1]

img = Image.open(arquivo)

if img.size[0] > 80:
   img.thumbnail((89,89))

cont = 1

for row in range(img.size[1]):

    for col in range(img.size[0]):
        pixel = img.getpixel((col,row))
        if type(pixel) == int:
           r = pixel
           g = pixel
           b = pixel
        else:
           r,g,b = pixel
        color = (r + g + b) / 3

        if cont < img.size[0]:

     if color < 19:
               print(‘&’),
          elif color < 50:
               print(‘8’),
          elif color < 75:
               print(‘0’),
          elif color < 100:
               print(‘$’),
          elif color < 130:
               print(‘2’),
          elif color < 165:
               print(‘1’),
          elif color < 180:
               print(‘|’),
          elif color < 200:
               print(‘;’),
          elif color < 218:
               print(‘:’),
          elif color < 229:
               print(“‘”),
          elif color <= 255:
               print(‘ ‘),
                cont = cont + 1
        else:
     if color < 19:
                        print(‘&’),
                elif color < 50:
                        print(‘8’),
                elif color < 75:
                        print(‘0’),
                elif color < 100:
                        print(‘$’),
                elif color < 130:
                        print(‘2’),
                elif color < 165:
                        print(‘1’),
                elif color < 180:
                        print(‘|’),
                elif color < 200:
                        print(‘;’),
                elif color < 218:
                        print(‘:’),
                elif color < 229:
                        print(“‘”),
                elif color <= 255:
                        print(‘ ‘),
                print
                cont = 1

Até

AGI Portabilidade para números móveis em Asterisk

janeiro 15, 2010 74 comentários

Postei estes dias um source em python para descobrir a portabilidade de números móveis na comunidade Asterisk e meu email começou a lotar sobre perguntas de como construir um AGI para rotear as chamadas por um gateway GSM etc etc.

Cada um tem um cenário diferente do outro vou postar a essencia do Script em Perl + Agi para descobrir para qual operadora um número móvel pertence a partir disso é simples, mas se precisarem de ajuda para algo estamos ae …

Já tem nego me Perguntado pq nao fez em Python o AGI??

R:  Acordei com vontade de fazer em perl …

Script Perl

#!/usr/bin/perl -w

use Asterisk::AGI;
use WWW::Mechanize;
use MIME::Base64;
my $AGI = new Asterisk::AGI;
my %input = $AGI->ReadParse();
my @operadoras = (“Eder”, “Claro”, “Tim”, “Vivo”, “Telemig”, “Oi”, “Nextel”, “Brasil telecom”, “Sercomtel”, “CTBC”);
my $num_saida = $AGI->get_variable(‘EXTEN’);
$num_saida = substr($num_saida,3,10);
$m = WWW::Mechanize->new();
my $data = decode_base64(‘aHR0cDovL3dlYnNlcnZpY2VzLnR3d3dpcmVsZXNzLmNvbS5ici9yZWx1emNhcC93c3JlbHV6Y2FwL’        . ‘mFzbXg=’);
$m->add_header(Referer => $data);
my $s = $data . “/VerOperadora?celular=55” . $num_saida;
$m->get($s);
$c = $m->content;
$c =~ m/>(\d+)</;
$AGI->exec(“NoOp”,”$num_saida”);
$AGI->exec(“NoOp”,”$operadoras[$1]”);

# O codigo se adapta conforme o cenario de cada um, mudar o DIAL para rotear a saida da operadora em questao
####$AGI->exec(“Dial”,”SIP/MUDE AQUI PARA SUA SAIDA SIP ou GSM ou ZAP ou DAHDI ou UNICALL ou DVG etc etc|10″);

# FIM

Extensions.conf

minha linha para a chamada do AGI de testes

exten => _999.,1,agi,pega.pl

ou seja só discar no seu telefoneIP ou sftphone “999+num_do_celular”

Tela:

UPDATE:

12/03/2014

É incrível a quantidade de emails que recebo pedindo para encontrar meios de mostrar números portados, hoje eu tive um tempinho e escrevi um novo código, se olharem no código vão perceber que eu inclui um proxy para enviar as requisições, o site é bem “esperto” e bloqueia todo o range de IP de sua rede pública se ocorrer muitos requests, (descobri isso  da pior maneira enquanto debugava o site), então vocês podem criar uma lista randômica com vários IPs que tenham proxy aberto para enviar as solicitações, código em https://gist.github.com/ederwander/9512693 !

Fui

Eng Eder de Souza

Portabilidade DBO Operadoras de Celulares

dezembro 30, 2009 1 comentário

Salve a todos ano novo ta chegando resolvi postar mais um source para descobrir a portabilidade somente para números móveis, funciona que é uma beleza bem rápido por sinal, para um AGI funciona perfeitamente, logo postarei uma outra versão mais robusta, neste novo ano espero ter mais tempo 🙂 .

Source bem enxutinho em python :

import urllib2
import urllib
import re
import sys
def getop(ddd,NUM):
url = “http://www.sbrobous.com/operadora.php
req = urllib2.Request(url)
req.add_header(‘Referer’, ‘http://www.sbrobous.com/operadora.php&#8217;)
data = {‘ddd’: ddd, ‘numero’: NUM, ‘a’: ‘enviar’}
req.add_data(urllib.urlencode(data))
f = urllib2.urlopen(req)
data = f.read()
f.close()
if “<b>” in data:
data  = data.replace(‘</b>’,”)
find = re.search(‘<b>(.*)’, data)
operadora = find.group(1)
print operadora
tel=sys.argv[1]
ddd = tel[:2]
NUM = tel[2:10]
getop(ddd,NUM)

Incrivel como python reduz as linhas de programação !!!

Segue uma tela:

[]’s

Eng Eder de Souza

Monitor Realtime + Asterisk

novembro 6, 2009 11 comentários

Bom só quem brincou com AMI no Asterisk sabe como é complicado, Eventos jogados na tela nada parece ter sentido uma avalanche de informações sem padrões definidos, construir aplicações genéricas se torna uma missão. 

Eu iniciei a pouco mais de dois anos um projeto monitor em Realtime a principio era para monitoramento só para verificar quem estava fazendo ou recebendo ligações, pensei “Moleza Delphi + Socket + AMI”. 

Dores e mais dores de cabeça na época tinha um link R2 com uma placa da digium rodando com o Unicall para quem tinha placa E1 Digium era a única saida de conversar com a sinalização R2. Então olhando o retorno do AMI iniciei um esboço de como pegar o retorno no buffer do meu Socket em Delphi 6.0 e montar algo bonitinho para usuários ficarem vendo tudo que acontece de atividade no canal Unicall do Asterisk !! 

Então vamos ver o que um core show channels verbose nos retorna !! 

Channel              Context              Extension        Prio State   Application  Data                      CallerID        Duration Accountcode BridgedTo
UniCall/16-1         default              1579                1 Up      Bridged Call SIP/6007-00f839c0         80151333623971                       SIP/6007-00f839c0
SIP/6007-00f839c0    default              80151333623971     22 Up      Dial         Unicall/g1/0151333623971  6007            00:02:40             UniCall/16-1
UniCall/14-1         default              1599                1 Up      Bridged Call SIP/6004-00d2fe00         80151938622970                       SIP/6004-00d2fe00
SIP/6004-00d2fe00    default              80151938622970     22 Up      Dial         Unicall/g1/0151938622970  6004            00:03:52             UniCall/14-1
UniCall/11-1         default              1599                1 Up      Bridged Call SIP/6006-00ea6650         80151335689403                       SIP/6006-00ea6650
SIP/6006-00ea6650    default              80151335689403     22 Up      Dial         Unicall/g1/0151335689403  6006            00:05:18             UniCall/11-1
SIP/6008-00e46a10    default                                  1 Up      Bridged Call UniCall/12-1              1938323241                           UniCall/12-1
UniCall/12-1         default              91000               3 Up      Queue        atendimento|r|||90        1938323241      00:06:10             SIP/6008-00e46a10
UniCall/10-1         default              1599                1 Up      Bridged Call SIP/6002-00f034c0         881895124                            SIP/6002-00f034c0
SIP/6002-00f034c0    default              881895124          22 Up      Dial         Unicall/g1/81895124       6002            00:06:37             UniCall/10-1
UniCall/13-1         default              1599                1 Up      Bridged Call SIP/6005-00f15800         808007771007                         SIP/6005-00f15800
SIP/6005-00f15800    default              808007771007       22 Up      Dial         Unicall/g1/08007771007    6005            00:09:02             UniCall/13-1
12 active channels
6 active calls

Bagunça !!!! 

Então a idéia seria filtrar essa bagunça e procurar por palavras chaves Criando uma funçao Busca para isso !!

Function BuscaTexto(Text,Busca : string) : string;
var n : integer;
begin
  for n := 1 to length(Text) do
    begin
       if Copy(Text,n,length(Busca)) = Busca then
          begin
             Result := ‘ok’;
             RetornoBuscaPos:=n;

          end;

    end;
end;

Agora eu poderia pegar dentro do Buffer do socket qualquer palavra chave como a “Unicall/g1”  e depois caminhar com um ponteiro para recortar isso em qualquer lugar e depois só teria que colocar o valor no GRID. 

Entao como ficaria: 

if BuscaTexto(Msg,’Unicall/g1/’) = ‘ok’ then
        begin
        if Copy(Msg,86,RetornoBuscaPos-79) = ‘Unicall’ then
          //pega o ramal que originou a chamada
          MainForm.StringGrid1.Cells[0,contador]:= Copy(Msg,5,RetornoBuscaPos-82);
          //pega o numero discado para fora destino ‘ ‘Unicall/g1/’
          MainForm.StringGrid1.Cells[1,contador]:= Copy(Msg,97,RetornoBuscaPos-71);

  
Extremamente Trabalhoso Marinheiro de Primeira viagem um colega de cuiaba o Juniou tbm embarcou nessa aventura ele mal dormia, por fim segue algumas telas depois de todo o trabalho …   

voip-monitor 

Tela com opção de verificar chamadas recebidas

programa-asterisk  

Monitor 

Assim tudo em AMI eu teria o retorno de 5 em 5 segundos do comando “core show channels verbose” na qual montaria a tela de ligações em um intervalo de 5 em 5 segundos…. 

Até a Proxima

Eng Eder de Souza

Protótipo: Asterisk + Visão Computacional = Monitoramento

/*

#    _
#   |_)\_/
#   |_) |
#
#
#    ___    _              _       ___
#   | __|__| |___ _ _   __| |___  / __| ___ _  _ _____ _
#   | _|/ _` / -_) ‘_| / _` / -_) \__ \/ _ \ || |_ / _` |
#   |___\__,_\___|_|   \__,_\___| |___/\___/\_,_/__\__,_|
Conecta Uma Web Cam e fica a espera de qualquer movimento detectado e faz
conexão com o Asterisk para iniciar Ligação …
Instruções de Compilação:
    DevC++: Tools > Compiler Options > Add linker -lhighgui -lcv -lcxcore
-lcvaux -lcvcam -lws2_32.
   
    Inserir todos os Includes do OpenCV e integrar ao compilador
   
————————————————————————————————————
Dependências:
    windows -> winsock2.h, WSDATA wsa_data, OpenCV.
    unix/linux -> <sys/types.h>, <sys/socket.h>, <arpa/inet.h>, OpenCV.
    comuns -> <iostream>, <unistd.h>, <string.h>, OpenCv
   
   
    Eng. Eder de Souza
    email: ederwan…@gmail.com, ederwan…@yahoo.com.br
   
     Data: 17-07-2009
    Visão Computacional + Asterisk para monitoramento via Web Cam
    Monitoramento de áreas sem presença de movimentos, se alguma percepção de
movimento for encontrado Servidor Asterisk Liga para comunicação …
   
*/
#include <stdlib.h>
 
// OpenCV includes.
#include <cv.h>
#include <highgui.h>
//
#include <iostream>
#include <process.h>
#include <time.h>
#include <unistd.h>
#include <string.h>
#ifdef unix
#include <sys/types.h>
#include <sys/socket.h>
#include <arpa/inet.h>
#else
#include <winsock2.h>
#include <windows.h>
#include <winsock2.h>
#include <stdio.h>
WSADATA wsa_data;
#endif
 
#define DEFAULT_BUFLEN 512
//IP e Porta para se Conectar ao Socket Perl Asterisk
#define DEFAULT_PORT 8888
#define IP “192.168.0.34”
//Intervalo para Iniciar a Ligação entre um movimento detectado
//Valor em mili-Segundos
#define intervalo 50000
using namespace std;
long int cont = 0;
int Me_Liga() {
    //———————-
    // Declarando e inicializando Variaveis.
    int iResult;
    WSADATA wsaData;
    SOCKET ConnectSocket;
    struct sockaddr_in clientService;
    int recvbuflen = DEFAULT_BUFLEN;
    char *sendbuf = “Movimento Detectado\n”;
    char recvbuf[DEFAULT_BUFLEN] = “”;
    //———————-
    // Inicializando o  Winsock
    iResult = WSAStartup(MAKEWORD(2,2), &wsaData);
    if (iResult != NO_ERROR) {
        printf(“WSAStartup Falhou com erro: %d\n”, iResult);
        return 1;
    }
    //———————-
    // Criando o Socket para se conectar ao Servidor
    ConnectSocket = socket(AF_INET, SOCK_STREAM, IPPROTO_TCP);
    if (ConnectSocket == INVALID_SOCKET) {
        printf(“socket Falhou com erro: %ld\n”, WSAGetLastError());
        WSACleanup();
        return 1;
    }
    //———————-
    // IP e porta do Servidor Perl Asterisk para se conectar.
    clientService.sin_family = AF_INET;
    clientService.sin_addr.s_addr = inet_addr( IP );
    clientService.sin_port = htons( DEFAULT_PORT );
    //———————-
    // Conecta ao server em perl com o Asterisk.
    iResult = connect( ConnectSocket, (SOCKADDR*) &clientService,
sizeof(clientService) );
    if (iResult == SOCKET_ERROR) {
        printf( “Conexao Falhou com erro: %d\n”, WSAGetLastError() );
        closesocket(ConnectSocket);
        WSACleanup();
        return 1;
  }
    //———————-
    // Enviando mensagem para Servidor
    iResult = send( ConnectSocket, sendbuf, (int)strlen(sendbuf), 0 );
    if (iResult == SOCKET_ERROR) {
        printf(“send() Falhou com erro: %d\n”, WSAGetLastError());
        closesocket(ConnectSocket);
        WSACleanup();
        return 1;
    }
    printf(“Bytes envido: %d\n”, iResult);
    // Mata a Conexao com o Socket
    iResult = shutdown(ConnectSocket, SD_SEND);
    if (iResult == SOCKET_ERROR) {
        printf(“shutdown falhou com  erro: %d\n”, WSAGetLastError());
        closesocket(ConnectSocket);
        WSACleanup();
        return 1;
    }
    // Resposta do socket
    do {
        iResult = recv(ConnectSocket, recvbuf, recvbuflen, 0);
        if ( iResult > 0 )
            printf(“Bytes recebido: %d\n”, iResult);
        else if ( iResult == 0 )
            printf(“Conexao Encerrada\n”);
        else
            printf(“recebimento falhou com erro: %d\n”, WSAGetLastError());
    } while( iResult > 0 );

    // limpando
    closesocket(ConnectSocket);
    WSACleanup();
 
}

static void Thread1 (LPVOID lpParam){
   
   
  
            cont=cont+1;
            Sleep(intervalo);
   
    printf(“%d Contador \n”, cont);
  
  if(cont >= 1){
    cont=0;
    Me_Liga();
   
}
}

int main()
{
 //Cria uma janela
 cvNamedWindow(“Eng_Eder_souza”, CV_WINDOW_AUTOSIZE);
 
 //Cria objeto para captura.
 CvCapture* inputMovie;
 
 //Informa o modo de captura.
     inputMovie = cvCaptureFromCAM(0);

 
 //tamanho da imagem
 CvSize imgSize;
 imgSize.width = 320;
 imgSize.height = 240;
 
 //Imagens para usar no programa
 IplImage* greyImage = cvCreateImage( imgSize, IPL_DEPTH_8U, 1);
 IplImage* colourImage;
 IplImage* movingAverage = cvCreateImage( imgSize, IPL_DEPTH_32F, 3);
 IplImage* difference;
 IplImage* temp;
 IplImage* motionHistory = cvCreateImage( imgSize, IPL_DEPTH_8U, 3);
 
 //Retangulo nos objetos
 CvRect bndRect = cvRect(0,0,0,0);
 
 //Pontos para o retangulo
 CvPoint pt1, pt2;
 
 //Cria uma font para o objeto.
 CvFont font;
 
 
 
 int inicio = 0;
 
 //Buffer
 
 char Scores[60000];
 
          
 //centraliza X do retangulo
 int avgX = 0;
 
 //Indica a primeira vez do loop de um frame
 bool first = true;
 
 
 //Mantem proceços do Frame de pé
 for(;;)
 {
  //Pega o Frame da entrada de Video
  colourImage = cvQueryFrame(inputMovie);
 
  //Se nao existir mais framas cair fora do For
  if( !colourImage )
  {
   break;
  }
  
  //Primeira vez para iniciar Imagem
  if(first)
  {
   difference = cvCloneImage(colourImage);
   temp = cvCloneImage(colourImage);
   cvConvertScale(colourImage, movingAverage, 1.0, 0.0);
   
   first = false;
  }
  //else, faz a detecção de movimento
  else
  {
   cvRunningAvg(colourImage, movingAverage, 0.020, NULL);
  }
 
  //Converte a scala do video
  cvConvertScale(movingAverage, temp, 1.0, 0.0);
 
  //analiza o frame corrente
  cvAbsDiff(colourImage,temp,difference);
  
  //converte a imagem para grayscale.
  cvCvtColor(difference, greyImage, CV_RGB2GRAY);
  
  //Converte a imagem para black and white.
  cvThreshold(greyImage, greyImage, 70, 255, CV_THRESH_BINARY);
  
  cvDilate(greyImage, greyImage, 0, 18);
  cvErode(greyImage, greyImage, 0, 10);
 
  //acha o contador de imagens em video
  CvMemStorage* storage = cvCreateMemStorage(0);
        CvSeq* contour = 0;
  cvFindContours( greyImage, storage, &contour, sizeof(CvContour),
CV_RETR_CCOMP, CV_CHAIN_APPROX_SIMPLE );
 
  //processa cada movimento no frame corrente
        for( ; contour != 0; contour = contour->h_next )
        {
   //pega quadrado nos objetos em movimento
   bndRect = cvBoundingRect(contour, 0);
 
   pt1.x = bndRect.x;
   pt1.y = bndRect.y;
   pt2.x = bndRect.x + bndRect.width;
   pt2.y = bndRect.y + bndRect.height;
         sprintf(Scores, “Com Movimento”);
   
   
   if(inicio == 0){
            Me_Liga();
            inicio = 1;
            }
            else{
                
               
                 if(cont == 0){
                  //Inicia a Thread para o Intervalo de tempo para Ligar
                 _beginthread( Thread1, 0, NULL );}
                 }
   
            }
         
   
 
  //desenha um retangulo nos objetos em movimento.
  cvRectangle(colourImage, pt1, pt2, CV_RGB(255,0,0), 1);
 
        cvInitFont(&font, CV_FONT_HERSHEY_SIMPLEX, 0.8, 0.8, 0, 2);
  cvPutText(colourImage, Scores, cvPoint(60, 200), &font, cvScalar(0, 0, 300));
  
  //Mostra o Frame.
  cvShowImage(“Eng_Eder_souza”, colourImage);
  
  
  cvWaitKey(10);
  sprintf(Scores, “Sem Movimento”);
        printf(“Apenas um Frame\n”);
  //Escreve o Frame no video de saida
 
 }
 
 // Termina com a imagem o video e a janela
 cvReleaseImage(&temp);
 cvReleaseImage(&difference);
 cvReleaseImage(&greyImage);
 cvReleaseImage(&movingAverage);
 cvDestroyWindow(“Eng_Eder_souza”);
 
 cvReleaseCapture(&inputMovie);
 
 return(0);
}
 
 
///#####FIM#####
 
Agora Segue script em Perl que recebe o socket e dispara a Ligação via Asterisk
este deve estar no servidor Asterisk executando no servidor Asterisk.
 
exemplo “perl serverasteriskEder.pl 8888″
 
#Eng. Eder de Souza
#    email: ederwan…@gmail.com, ederwan…@yahoo.com.br
#    Data: 22-09-2008
use IO::Socket::INET;
use strict;

my $numero;
my $arquivo;
my $r;
my $port = shift
    or die”Falta o numero da porta\n”;
my $socket = IO::Socket::INET->new(‘LocalPort’ => $port,
                                   ‘Proto’ => ‘tcp’,
                                   ‘Listen’ => SOMAXCONN)
    or die “Can’t create socket ($!)\n”;
print “Server listening\n”;
while (my $client = $socket->accept) {
    my $name = gethostbyaddr($client->peeraddr, AF_INET);
    my $port = $client->peerport;
    while (<$client>) {
        print “[$name $port] $_”;
        print $client “$.: $_”;
$r = $_;
if( $r =~ /Movimento/) {
print $r,”\n”;
        system(“echo ‘$r’ > /tmp/test.txt”);
        open ($arquivo, ‘</var/lib/asterisk/agi-bin/telefones.txt’);
        while (<$arquivo>) {
           $numero = $_;
           my $discar = “/var/spool/asterisk/”.$numero.”.call”;
           my $arqdestino = “/var/spool/asterisk/outgoing/” ;
           open(EXTEN,”>$discar”);
           print EXTEN “Channel: Sip/$numero\n”;
           print EXTEN “MaxRetries: 5\n”;
           print EXTEN “RetryTime: 60 \n”;
           print EXTEN “WaitTime: 60 \n”;
           print EXTEN “Context: Saida\n”;
           print EXTEN “Extension: 3300\n”;
           print EXTEN “Priority: 1\n”;
           close(EXTEN);
           system(“mv /var/spool/asterisk/*.call $arqdestino”);
       }
       close $arquivo;

        }
 

}
    close $client
        or die “cliente encerrou conexao ($!)\n”;
}
die “socket com problema ($!)\n”;

 
###FIM###
 
 
[]’s
 
Eng Eder de Souza