登入帳戶  | 訂單查詢  | 購物車/收銀台( 0 ) | 在線留言板  | 付款方式  | 聯絡我們  | 運費計算  | 幫助中心 |  加入書簽
會員登入 新註冊 | 新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類閱讀雜誌 香港/國際用戶
最新/最熱/最齊全的簡體書網 品種:超過100萬種書,正品正价,放心網購,悭钱省心 送貨:速遞 / EMS,時效:出貨後2-3日

2024年03月出版新書

2024年02月出版新書

2024年01月出版新書

2023年12月出版新書

2023年11月出版新書

2023年10月出版新書

2023年09月出版新書

2023年08月出版新書

2023年07月出版新書

2023年06月出版新書

2023年05月出版新書

2023年04月出版新書

2023年03月出版新書

2023年02月出版新書

『簡體書』OpenNI体感应用开发实战(首本OpenNI专著,资深专家撰写,华硕官方和中文体感社区联袂推荐,系统讲解OpenNI和Xtion的使用、技术和原理,包含多个有趣综合案例)

書城自編碼: 2412487
分類: 簡體書→大陸圖書→計算機/網絡软件工程/开发项目管理
作者: 任侃 等著
國際書號(ISBN): 9787111470168
出版社: 机械工业出版社
出版日期: 2014-06-01
版次: 1 印次: 1
頁數/字數: 263/
書度/開本: 16开 釘裝: 平装

售價:NT$ 531

我要買

share:

** 我創建的書架 **
未登入.



新書推薦:
财之道丛书·太古传:商业帝国200年
《 财之道丛书·太古传:商业帝国200年 》

售價:NT$ 717.0
不要相信你所想的一切:如何停止过度思考,克服焦虑、自我怀疑和自我破坏
《 不要相信你所想的一切:如何停止过度思考,克服焦虑、自我怀疑和自我破坏 》

售價:NT$ 235.0
万历四大征(全两册)
《 万历四大征(全两册) 》

售價:NT$ 549.0
凝望:我的摄影与人生
《 凝望:我的摄影与人生 》

售價:NT$ 605.0
工业机器人从基础到实战
《 工业机器人从基础到实战 》

售價:NT$ 717.0
重症产科.1
《 重症产科.1 》

售價:NT$ 335.0
财之道丛书·表层的真理:当代经济学与社会
《 财之道丛书·表层的真理:当代经济学与社会 》

售價:NT$ 493.0
世界服饰艺术史
《 世界服饰艺术史 》

售價:NT$ 1445.0

建議一齊購買:

+

NT$ 656
《 OpenCV3编程入门 》
+

NT$ 490
《 ARM Cortex-M4 + Wi-Fi MCU应用指南——CC3200 CCS基础篇 》
+

NT$ 882
《 机器视觉 》
+

NT$ 621
《 爱上Arduino:学Arduino玩转Kinect制作项目 》
+

NT$ 495
《 Kinect体感程序设计入门(使用C#和C++) 》
+

NT$ 1395
《 格物智知:3D图形与人机交互技术应用 》
編輯推薦:
国内首本关于OpenNI的专著,资深专家撰写,华硕官方和CNKinect社区联袂推荐
全面而系统讲解OpenNI和Xtion的功能使用、技术细节和工作原理,以及体感应用开发的各种知识和技巧
包含多个有趣的综合性案例,详细分析和讲解案例的实现过程,实战性非常强
內容簡介:
本书是国内首本关于OpenNI的实战性著作,也是首本基于Xtion设备的体感应用开发类著作。具有权威性,由国内体感应用开发领域的专家撰写,华硕官方和CNKinect社区提供支持;具有针对性,深入调研OpenNI社区开发者的需求,据此对内容进行编排;全面且系统地讲解了Xtion和OpenNI的功能使用、技术细节和工作原理,以及体感应用开发的各种知识和技巧;实战性强,包含多个有趣的综合性案例,详细分析和讲解案例的实现过程,确保读者通过本书掌握体感应用开发的技术和方法是本书的宗旨。
全书共19章,分为五个部分:基础篇(第1~3章)介绍了自然人机交互技术、Xtion硬件设备的功能和原理、OpenNI的功能和应用;准备篇(第4~6章)讲解了如何搭建OpenNI+Xtion的体感应用开发环境,以及OpenNI的一些基本功能;进阶篇(第7~13章)详细讲解了人体骨骼追踪、手势识别、手部追踪、录制与重播、生产节点的建立、声音数据的获取和使用、彩色图像数据的获取和贴图等OpenNI的重要功能及其应用方法;实战篇(第14~17章)详细讲解了4个有趣且具有代表性的案例,通过这部分内容读者将能掌握体感应用开发的流程与方法;高级篇(第18~19章)讲解了体感应用开发中会用到的多种高级功能,如运动捕捉和OpenNI Unity工具包等。
關於作者:
任侃
国内体感应用开发领域的先驱,毕业于英国萨利大学(University of Surrey),就职于南京理工大学电光学院。精通体感应用开发,对人机交互技术、体感技术、体感应用、体感设备等都有非常深入研究。在C++语言、视频和图像处理、用户体验研究等领域的实践经验也比较丰富。
目錄
前言
第一部分 基础篇
 第1章 自然人机交互
1.1 什么是自然交互
1.2 科幻电影场景的人机交互
1.3 自然人机交互技术发展现状
1.4 本章小结
 第2章 Xtion硬件设备
2.1 Xtion设备简介
 2.1.1 Xtion设备的类型
 2.1.2 Xtion设备的功能
 2.1.3 Xtion设备的规格
2.2 Xtion设备的优势
 2.2.1 Xtion和Kinect的区别
 2.2.2 硬件设备的软件支持
2.3 深度感应器原理
 2.3.1 感应器架构
 2.3.2 深度感应器工作原理
 2.3.3 深度精确度分析
 2.3.4 无法侦测物体深度
2.4 本章小结
 第3章 OpenNI开发方案
3.1 初识OpenNI
 3.1.1 OpenNI架构
 3.1.2 OpenNI支持的模块
 3.1.3 OpenNI的功能
 3.1.4 OpenNI中的对象
 3.1.5 OpenNI版本更新说明
3.2 OpenNI生产节点
 3.2.1 生产节点的类型
 3.2.2 生产节点概念图
 3.2.3 生成和读取数据
 3.2.4 OpenNI接口的配置
3.3 OpenNI应用
 3.3.1 Xtion Controller应用
 3.3.2 INOUT应用
 3.3.3 Artec Studio应用
 3.3.4 体感技术在初音未来上的应用
3.4 本章小结
第二部分 准备篇
 第4章 Xtion开发准备工作
4.1 下载OpenNI及相应程式
 4.1.1 下载SDK
 4.1.2 下载Middleware
 4.1.3 下载OpenNI以及相应的NITE
4.2 安装OpenNI
 4.2.1 Windows环境下的准备工作
 4.2.2 OpenNI档案及相关环境
 4.2.3 加载设备驱动
 4.2.4 检测Xtion设备
 4.2.5 NiViewer基本控制方法
4.3 使用Xtion的注意事项
4.4 本章小结
 第5章 搭建基础的Xtion体感开发环境
5.1 创建控制台工程
5.2 配置工程OpenNI环境
5.3 本章小结
 第6章 初识Xtion体感开发
6.1 OpenNI基础应用
 6.1.1 上下文对象初始化
 6.1.2 创建生产节点
 6.1.3 使用XML文档中的生产节点
 6.1.4 错误信息返回
 6.1.5 开始产生数据
 6.1.6 停止产生数据
 6.1.7 上下文对象资源释放
 6.1.8 更新数据
 6.1.9 镜像设置
 6.1.10 图像位置校正
6.2 图生成器
 6.2.1 获取支持图输出模式
 6.2.2 图生成器输出模式
 6.2.3 获取和设置图输出模式
 6.2.4 获取图像素字节数
6.3 深度生成器
 6.3.1 获取深度元数据对象
 6.3.2 获取深度图
 6.3.3 获取设备最大深度
 6.3.4 获取设备视野范围
 6.3.5 绝对坐标和相对坐标转换
 6.3.6 获取用户位置功能
6.4 用户生成器
 6.4.1 获取用户数量
 6.4.2 获取用户
 6.4.3 获取用户质心
 6.4.4 获取用户像素
 6.4.5 注册用户回调函数
 6.4.6 获取骨架功能
 6.4.7 获取姿势侦测功能
6.5 场景分析器
 6.5.1 获取场景元数据对象
 6.5.2 获取场景地板
 6.5.3 获取场景标识段
6.6 图生成器的概念及功能
 6.6.1 图元数据对象
 6.6.2 输出模式设定
6.7 OpenNI程序流程
 6.7.1 初始化Context
 6.7.2 建立Production Node
 6.7.3 开始产生资料
 6.7.4 更新、读取资料
 6.7.5 处理读取的资料
 6.7.6 结束和错误侦测
6.8 本章小结
第三部分 进阶篇
 第7章 人体骨架追踪
7.1 坐标系
 7.1.1 绝对坐标
 7.1.2 相对坐标
 7.1.3 相对坐标和绝对坐标的转换
7.2 关节
 7.2.1 OpenNI可侦测的关节点
 7.2.2 读取关节资料函数
 7.2.3 关节位置的平滑化
7.3 人体骨架追踪流程
 7.3.1 需要特定姿势的骨架追踪
 7.3.2 不需要特定姿势的骨架追踪
 7.3.3 使用现有校正资料
7.4 人体骨架追踪程序搭建流程
 7.4.1 创建并初始化设备上下文
 7.4.2 创建并设定生产节点
 7.4.3 注册回调函数
 7.4.4 开始侦测数据
 7.4.5 更新数据
 7.4.6 得到用户信息
7.5 人体骨架识别范例
7.6 本章小结
 第8章 手势识别与手部追踪
8.1 手势识别原理
 8.1.1 OpenNI支持的手势
 8.1.2 遍历NITE支持的手势
 8.1.3 添加手势与回调函数
 8.1.4 手势识别范例
8.2 NITE控制
 8.2.1 NITE Control函数详解
 8.2.2 NITE Control范例
8.3 手部追踪原理
 8.3.1 手心生成器回调函数注册
 8.3.2 手部追踪初始化
8.4 本章小结
 第9章 录制与重播
9.1 录制
 9.1.1 创建录制器
 9.1.2 设置录制目标档案
 9.1.3 获取录制目标档案
 9.1.4 添加录制节点
 9.1.5 删除录制节点
9.2 重播
 9.2.1 设置重复播放
 9.2.2 设置和获取播放源资料
 9.2.3 设置重播起始时间
 9.2.4 获取当前播放位置信息
 9.2.5 检索播放器中的节点
 9.2.6 判断是否播放结束
 9.2.7 注册播放到结尾事件回调函数
 9.2.8 设置回放速率
9.3 本章小结
 第10章 限制生产节点的建立条件
10.1 有条件地建立生产节点
 10.1.1 添加限制条件
 10.1.2 设置限制条件
 10.1.3 建立生产节点
10.2 通过限制条件列举符合条件的生产节点
10.3 根据节点信息建立生产节点
10.4 本章小结
 第11章 使用XML文档初始化
11.1 XML文档设定参数
 11.1.1 XML文档基本架构
 11.1.2 XML文档中的节点
 11.1.3 XML文档使用范例
11.2 使用XML文档配置功能
 11.2.1 强制录制ONI文档的XML配置
 11.2.2 资料产生
11.3 本章小结
 第12章 声音数据的获取与使用
12.1 声音生成器
 12.1.1 创建声音生成器
 12.1.2 获取声音数据
 12.1.3 设置声音设备的输出模式
 12.1.4 注意事项
12.2 声音数据的处理
 12.2.1 声音录制
 12.2.2 声音播放
12.3 本章小结
 第13章 彩色图像的获取和贴图
13.1 OpenNI框架支持的图像格式
13.2 图像生成器
 13.2.1 创建图像生成器
 13.2.2 获取图像数据
 13.2.3 设置及获取图像生成器的输出格式
13.3 获取RGB影像及贴出RGB影像
13.4 本章小结
第四部分 实战篇
 第14章 体感鼠标模拟
14.1 手部追踪与鼠标模拟
14.2 程序编写前的准备工作
 14.2.1 环境准备
 14.2.2 界面准备
 14.2.3 鼠标相关参数配置准备
14.3 初始化
 14.3.1 对话框初始化
 14.3.2 载入ini文档中的配置
 14.3.3 OpenNI程序环境初始化
14.4 程序设计
 14.4.1 获取深度图
 14.4.2 获取用户数据
 14.4.3 鼠标左右手模式的选择及切换
 14.4.4 滚轮控制放大和缩小
 14.4.5 左手控制鼠标
 14.4.6 右手控制鼠标
 14.4.7 鼠标事件指令发送
 14.4.8 悬停状态设计
14.5 本章小结
 第15章 Xtion玩《街头霸王》
15.1 用身体控制游戏人物
 15.1.1 人物基本操控动作
 15.1.2 通用招式动作设计
 15.1.3 游戏人物的特有招式设计
15.2 创建工程、配置工程环境
15.3 初始化
 15.3.1 读取深度数据
 15.3.2 处理深度数据
 15.3.3 获取骨架
 15.3.4 骨架数据的初步处理
15.4 Ken人物动作的表述
 15.4.1 轻拳
 15.4.2 跳起
 15.4.3 波动拳
 15.4.4 神龙拳
15.5 虚拟按键机制
15.6 本章小结
 第16章 体感方向盘玩赛车类游戏
16.1 体感方向盘设计
 16.1.1 操控方向盘基本动作
 16.1.2 虚拟线性手柄模拟方向盘
16.2 体感方向盘程序开发初始化
 16.2.1 环境初始化
 16.2.2 虚拟手柄初始化
16.3 模拟方向盘操控
 16.3.1 获取用户信息
 16.3.2 左右方向的控制
 16.3.3 油门与刹车
 16.3.4 发送指令给虚拟线性手柄
16.4 本章小结
 第17章 Xtion控制机器人
17.1 体感控制机器人需求分析
 17.1.1 了解机器人构造
 17.1.2 如何用身体操控机器人
 17.1.3 机器人操控程序界面设计
17.2 初始化
 17.2.1 界面初始化
 17.2.2 体感追踪初始化
 17.2.3 回调函数
17.3 控制机器人
 17.3.1 连接机器人
 17.3.2 发送指令
17.4 机器人程序代码实现
 17.4.1 骨骼数据的初步获取
 17.4.2 左肩的体感控制
 17.4.3 大臂转动的控制
 17.4.4 肘部角度计算
 17.4.5 手部角度计算
 17.4.6 小手臂转动
17.5 本章小结
第五部分 高级篇
 第18章 BVH骨架转换
18.1 运动捕捉技术简介
 18.1.1 典型的运动捕捉设备组成
 18.1.2 传统捕捉技术
 18.1.3 运动捕捉技术应用
 18.1.4 运动捕捉技术优缺点
18.2 动作捕获数据
 18.2.1 解析BVH文件
 18.2.2 骨架结构
 18.2.3 解读数据
18.3 旋转
 18.3.1 基础2D旋转
 18.3.2 3D坐标轴旋转
18.4 欧拉角
 18.4.1 从欧拉角转换到矩阵
 18.4.2 从矩阵转换到欧拉角
 18.4.3 从骨架数据中提取欧拉角
18.5 本章小结
 第19章 OpenNI Unity工具包
19.1 准备工作
 19.1.1 下载和安装
 19.1.2 创建基本对象
19.2 开始游戏
 19.2.1 查看控制台中初始化过程
 19.2.2 查看传感器的深度视图
 19.2.3 雷达视图侦测用户
19.3 添加骨架模型
 19.3.1 导入士兵模型
 19.3.2 加入人物模型
 19.3.3 修复模型
 19.3.4 连接骨骼控制器
 19.3.5 骨架匹配
 19.3.6 模型制成预制件
19.4 添加用户选择器
 19.4.1 用户与玩家的选择
 19.4.2 美化
19.5 本章小结
附录 BVH文件格式示例

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 海外用户
megBook.com.tw
Copyright (C) 2013 - 2024 (香港)大書城有限公司 All Rights Reserved.