iOS增强现实应用开发实战

iOS增强现实应用开发实战

作者: 
Kyle Roche
ISBN: 
9787111420200
出版日期: 
星期三, 五月 1, 2013

简介

  《iOS增强现实应用开发实战》系统讲解增强现实的实用工具、核心技术和基本原理,以及如何将增强现实技术与iOS开发技术相融合。图文并茂、实例丰富,以简明易懂的语言循序渐进地讲解了游戏、社交和面部识别等各种类型的iOS应用的开发方法,可操作性强。更为重要的是,它还讲解了如何将增强现实技术应用到已有的应用中!
  《iOS增强现实应用开发实战》共分13章,具体内容如下:第1章主要介绍创建增强现实应用的准备工作以及关键章节的简述;第2章介绍检查各种硬件组件可用性的方法;第3章介绍iOS的地图功能和将其集成到具体应用的高级技术;第4章介绍加速计和陀螺仪、磁力计等iOS传感器;第5章介绍如何在一个增强现实应用中播放和记录声音;第6章,介绍如何使用iPhone或者iPad的拍照和录像功能进行视频采集;第7章讲解如何使用cocos2D在摄像头视图上覆盖一个HUD层;第8章细述一个cocos2D增强现实应用的创建;第9章介绍String、Qualcomm和ARKit增强现实工具包的应用;第10章讲述利用String、OpenGL ES建立一个基于标记的增强现实应用;第11章介绍如何建立一个社交型的增强现实应用;第12~13章介绍面部识别技术及其在增强现实应用中的用法。

目录

第1章 引言
1.1 增强现实的应用实例
1.1.1 日常应用的趋势
1.1.2 游戏和基于位置的应用
1.2 准备工作
1.2.1 注册GitHub账户
1.2.2 从机器访问GitHub
1.2.3 安装Xcode 4.2和创建开发者账户
1.2.4 连接Xcode工程到GitHub
1.2.5 创建Xcode工程
1.2.6 连接工程到远程仓库
1.3 下一步做什么
1.3.1 位置服务
1.3.2 传感器编程
1.3.3 声音和视频采集
1.3.4 游戏框架
1.3.5 第三方框架
1.4 总结

第2章 硬件比较
2.1 除旧存新
2.2 硬件组件
2.2.1 摄像头支持
2.2.2 位置检测能力
2.2.3 数字指南针
2.2.4 声音支持
2.2.5 检查录像功能
2.2.6 加速计和陀螺仪
2.3 强制硬件需求
2.4 总结

第3章 使用位置服务
3.1 基础功能
3.1.1 标准位置服务
3.1.2 显著变更位置服务
3.1.3 地理区域监控服务
3.1.4 高度
3.2 在地图上查看
3.2.1 置中地图和设置显示区域
3.2.2 修改地图类型
3.2.3 在地图上添加注释
3.3 解析地理编码
3.4 总结

第4章 iOS传感器
4.1 方向传感器
4.1.1 使用加速计
4.1.2 低通滤波
4.1.3 使用陀螺仪
4.1.4 磁力计
4.2 总结

第5章 声音和用户反馈
5.1 音频数据格式
5.1.1 哪一种格式适合我们呢
5.1.2 文件保存格式
5.1.3 比特率和质量
5.1.4 采样率
5.1.5 为在iOS中使用而转换音频格式
5.2 在iOS应用中播放声音
5.2.1 系统声音服务
5.2.2 AVAudioPlayer类
5.2.3 测试多重音频播放
5.2.4 播放位置声音
5.2.5 通过震动进行用户反馈
5.3 录音
5.4 总结

第6章 摄像头和视频采集
6.1 快速浏览
6.2 拍照
6.2.1 使用故事板
6.2.2 使用摄像头
6.2.3 以不同的格式保存图像
6.2.4 通过电子邮件发送图像
6.3 视频捕获
6.3.1 建立一个视频预览基础
6.3.2 为帧捕获建立基础
6.4 总结

第7章 把cocos2D用于增强现实
7.1 概况
7.2 安装
7.2.1 安装工程模板
7.2.2 创建工程
7.3 初识增强现实应用视图
7.3.1 调整默认视图
7.3.2 添加摄像头视图
7.3.3 缩放摄像头视图
7.4 cocos2D的概念
7.4.1 场景
7.4.2 控制器
7.4.3 图层
7.5 添加效果
7.5.1 处理触摸事件
7.5.2 视觉效果
7.5.3 添加声音效果
7.6 添加HUD层
7.7 总结

第8章 构建cocos2D增强现实游戏
8.1 概述
8.2 创建工程
8.3 创建游戏菜单
8.3.1 原图
8.3.2 辅助代码目录
8.3.3 完成菜单屏
8.4 添加菜单选项
8.5 完成动作层
8.6 南瓜来了
8.7 结束游戏
8.8 总结

第9章 第三方增强现实工具包
9.1 概述
9.2 Powered by String框架
9.2.1 String的基本工作流程
9.2.2 额外功能
9.2.3 整合Unity
9.2.4 高级着色和OpenGL功能
9.3 Qualcomm软件开发工具包
9.4 建立我们自己的QCAR演示
9.4.1 创建Xcode工程
9.4.2 EAGLView
9.4.3 重定向UIView
9.5 ARKit
9.6 总结

第10章 使用OpenGL ES创建基于标记的增强现实应用
10.1 建立标记
10.1.1 我们的标记
10.1.2 OpenGL ES
10.2 创建工程
10.2.1 添加String框架
10.2.2 EAGLView
10.2.3 创建增强现实视图控制器
10.3 总结

第11章 构建社交型的增强现实应用
11.1 快速设置
11.1.1 创建Fackbook应用
11.1.2 克隆Facebook iOS SDK
11.2 词汇表
11.2.1 方位角
11.2.2 矫正方向
11.3 构建应用
11.3.1 致谢
11.3.2 所需框架
11.3.3 添加Facebook iOS SDK
11.3.4 开始编码
11.3.5 监听传感器更新
11.3.6 存储坐标
11.4 添加社交上下文
11.5 总结

第12章 面部识别技术
12.1 面部识别的可选项
12.1.1 OpenCV
12.1.2 iOS 5的CIDetector类
12.1.3 face.com
12.2 使用OpenCV的方式
12.2.1 为测试捕获图像
12.2.2 哈尔级联分类器
12.2.3 OpenCV综述
12.3 使用CIDetector类的方式
12.4 使用face.com API的方式
12.4.1 faces.detect API的调用
12.4.2 添加face.com支持到例子中
12.4.3 face.com API Key
12.4.4 添加face.com Callout
12.5 测试性能
12.6 总结

第13章 建立一个面部识别增强现实应用
13.1 应用的目的
13.2 快速设置
13.2.1 face.com
13.2.2 cocos2D
13.2.3 建立Twilio账户
13.2.4 下载ASI-HTTP-Request库
13.2.5 JSON框架
13.3 工程结构
13.4 建立主场景
13.5 face.com API
13.5.1 使用ASI-HTTP-Request库
13.5.2 创建POST请求方法
13.5.3 创建NSTimer
13.5.4 解析输出
13.5.5 构造HUD层
13.6 添加一个Twilio调出
13.7 总结