码迷,mamicode.com
首页 > 其他好文 > 详细

语音识别技术

时间:2014-07-13 10:53:29      阅读:256      评论:0      收藏:0      [点我收藏+]

标签:blog   http   使用   文件   数据   os   

通过谷歌语音接口的实现语音识别

 

最近在项目中有需要实现语音识别的功能。折腾了几天才搞好。刚开始做的时候没点头绪 ,网上找的资料都是乱七八糟的,要不就是非常古老的实现方法,一些简单的代码片段。所以我决定把我的经验分享给大家。

 

 

要在IOS中实现语音识别流程如下:

录音->pcm格式->转换wav->转换flac->向谷歌发送请求->等待返回的json数据->解析数据;

 

首先如果你要使用谷歌的接口实现语音识别必须知道下面着几点:

1.如何发送POST请求。(可以使用开源库ASIHttpRequest,AFNetWorking,这些库都封装了网络请求,使用起来非常简单);

 

 2.了解音频格式pcm,wav,flac,(着三个音频格式的关系是,因为谷歌接口只接受flac音频格式,其他格式无法识别,IOS中无法录制flac音频格式,也无法录制wav,只能录制pcm,所以要一步一步转换);

 

3.了解AVAudioRecorder类如何使用,怎么配置.

在IOS中录音就要使用AVAudioRecorder这个类,这个类的实例方法如下:

- (id)initWithURL:(NSURL *)url settings:(NSDictionary *)settings error:(NSError **)outError;
url:录音完成后声音存放的位置,

          settings:设置录制声音的参数,只有一个关键的key跟大家讲下AVFormatIDKey,这个key决定你录制出来声音的格式,我们要录成lpcm格式,未压缩的原音数据,以便我们转换,所以使用kAudioFormatLinearPCM值.其他key可以在帮助文档看,

 

  NSMutableDictionary *recordSetting = [[NSMutableDictionaryalloc]init];

  [recordSetting setValue:[NSNumbernumberWithInt:kAudioFormatLinearPCM]forKey:AVFormatIDKey];

    [recordSetting setValue:[NSNumbernumberWithFloat:16000.0]forKey:AVSampleRateKey];

    [recordSetting setValue:[NSNumbernumberWithInt:1]forKey:AVNumberOfChannelsKey];

    [recordSetting setValue:[NSNumbernumberWithInt:16]forKey:AVLinearPCMBitDepthKey];

    [recordSetting setValue:[NSNumbernumberWithInt:AVAudioQualityHigh]forKey:AVEncoderAudioQualityKey];

    [recordSetting setValue:@(NO)forKey:AVLinearPCMIsBigEndianKey];

设置完这个对象后就可以开始录音了.得到lpcm格式音频数据后就开始我们的第一次转换,转换成wav,什么是wav呢?点击,  知道wav是什么之后就可以开始转码了.转码是用C实现的,着部分代码在下面我打包的文件里面;

 

文件转换成WAV之后还需要将WAV的转换成FLAC才能上传到谷歌接口进行语音识别,幸好在在github上有人封装好了一个FLAC的开源库:https://github.com/jhurt/FLACiOS

下载这个源码后要去掉OGG的支持,不然编译不过。直接点击文件 -,编译后进入,Products目录拿到.a和framework,把这个两个文件一起加入你的工程。

bubuko.com,布布扣

声音处理完毕后就要往谷歌语音接口发请求了。我是使用ASI发的请求,大家可以用其他库来发,毕竟ASI有点太老了,我只是用习惯了而已。这里的filePath就是转换后FLAC文件的地址;

#define GOOGLE_AUDIO_URL @"http://www.google.com/speech-api/v1/recognize?xjerr=1&client=chromium&lang=zh-CN"

 

NSURL *URL = [NSURL URLWithString:GOOGLE_AUDIO_URL];

     ASIFormDataRequest *request = [ASIFormDataRequestrequestWithURL:URL];

    [request addRequestHeader:@"Content-Type"value:@"audio/x-flac; rate=16000"];

    [request appendPostDataFromFile:filePath];

    [request setRequestMethod:@"POST"];

    

    request.completionBlock = ^{

        NSLog(@"json: %@",request.responseString);

        NSData *data = request.responseData;

        id ret = nil;

        ret = [NSJSONSerializationJSONObjectWithData:data options:NSJSONReadingMutableContainerserror:nil];

        NSLog(@"ret %@",ret);

        results(ret);

    };

    request.failedBlock = ^{

        UIAlertView *alert = [[UIAlertViewalloc]initWithTitle:@"错误"message:@"网络请求错误"delegate:nilcancelButtonTitle:@"确定" otherButtonTitles:nil,nil];

        [alert show];

        NSLog(@"网络请求错误:%@",request.error);

    };

    [request startSynchronous];

-----------------------------------------------------------------------------------------------以下是谷歌返回的JSON解析--------------------------------------------------------------------------------------------

 

if(dic ==nil || [dic count] == 0){

                return;

            }

            NSArray *array = [dic objectForKey:@"hypotheses"];

     if ([arraycount] ) {

                 NSDictionary *dic_hypotheses  = [arrayobjectAtIndex:0];

                NSString *  sContent = [NSStringstringWithFormat:@"%@", [dic_hypothesesobjectForKey:@"utterance"]];

                self.textField.text = sContent;

  }

 

这里是我写的一个测试工程全部代码 http://pan.baidu.com/s/1kTMBBk7 ;直接可以用。有什么问题请留言,期待于大家交流

语音识别技术,布布扣,bubuko.com

语音识别技术

标签:blog   http   使用   文件   数据   os   

原文地址:http://www.cnblogs.com/yulang314/p/3837855.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!