Article image

UR

Uriel Reis05/10/2023 22:21
Compartilhe

Reconhecimento de fala em Tempo Real com Swift

  • #Swift

Reconhecimento de fala na linguagem Swift é uma escolha muito poderosa para o desenvolvedor. Com uso das APIs de reconhecimento de fala disponíveis no iOS e macOS, é possível criar aplicativos que transcrevem áudio em texto com precisão e facilidade. Neste artigo, vamos explorar um exemplo de código em Swift para realizar o reconhecimento de fala em tempo real.

Configurando o Reconhecimento de Fala

Para começar, é necessário importar o framework Speech no seu projeto:

image

Em seguida, podemos criar uma instância do SFSpeechRecognizer, que é responsável por reconhecer a fala com base no idioma fornecido. No exemplo abaixo, estamos configurando o reconhecimento de fala para o idioma inglês:

image

Preparando a Captura de Áudio

Antes de iniciar o reconhecimento de fala, precisamos configurar a captura de áudio do microfone. Vamos utilizar o AVAudioEngine para realizar essa tarefa. O código a seguir configura as variáveis necessárias para capturar o áudio:

image

Nesse trecho de código, definimos as variáveis recognitionRequest e recognitionTask para lidar com o reconhecimento de fala. Em seguida, criamos uma instância do AVAudioEngine para capturar o áudio do microfone.

O inputNode representa o nó de entrada do áudio no AVAudioEngine. Configuramos um tap nesse nó para capturar os buffers de áudio à medida que são gravados. Esses buffers são então adicionados à solicitação de reconhecimento (recognitionRequest) para transcrição.

Iniciando o Reconhecimento de Fala

Agora que configuramos a captura de áudio, podemos iniciar o reconhecimento de fala. Utilizamos o método start() do AVAudioEngine para iniciar a captura de áudio do microfone:

image

Após iniciar o AVAudioEngine, podemos iniciar a tarefa de reconhecimento de fala usando o método recognitionTask(with:completion:) do SFSpeechRecognizer. O código a seguir mostra como fazer isso:

image

Nesse trecho de código, passamos a solicitação de reconhecimento (recognitionRequest) para o método recognitionTask(with:completion:). Dentro do bloco de conclusão, podemos acessar o resultado do reconhecimento de fala. No exemplo acima, estamos imprimindo o texto transcrito no console.

Conclusão

Com este exemplo de código em Swift, é possível capturar áudio do microfone e transcrevê-lo em tempo real utilizando as APIs de reconhecimento de fala disponíveis no iOS e macOS. Essa funcionalidade abre um mundo de possibilidades para o desenvolvimento de aplicativos que lidam com entrada de voz e transcrição de áudio.

O Swift oferece uma sintaxe clara e concisa para trabalhar com reconhecimento de fala, tornando mais fácil para os desenvolvedores implementarem recursos poderosos em seus aplicativos. Combinado com as APIs nativas do iOS e macOS, o Swift se destaca como uma escolha poderosa para desenvolvedores que desejam explorar o reconhecimento de fala e criar aplicativos inovadores.

Compartilhe
Comentários (0)