实现光晕效果和思考3D流水线问题
最近在看阿哲的《3D地形制作全攻略》,写得很好,但是好像网上找不到源码,本来想加QQ请教一下,不过貌似被拒绝了。。。
按照书上的方法想做一个光晕效果,看着其实还是不难,但是动手实现的时候还是遇到了麻烦,特别是进行世界坐标->视角转换->投影转换->视口转换的时候,理解起来还是费了一番功夫。
就此总结一下。
首先说一下光晕实现的思路,就是在世界坐标系中确定太阳的位置,然后通过视角转换->投影转换->视口转换,变换到屏幕坐标,结算其与屏幕中心的连线,在这条直线上面贴上光晕的贴图,光晕的alpha值由太阳(屏幕坐标)到屏幕边界的距离决定,开启alpha融合渲染。
基本思想并不难理解,难点在于蕴含在视角转换->投影转换->视口转换中的3D数学知识。
举例说明:
视角矩阵形如:
-1,0,0,0
0,1,0,0
0,0,-1,0
0,-3347,300,1
视角变换是将摄像机变换到世界坐标系的原点,并将其旋转使摄像机的光轴与世界坐标系z轴方向一致。同时,世界空间中的所以几何体都随着摄像机一同进行变换,以保证摄像机的视场恒定。
投影矩阵:
1.81,0,0,0
0,2.4,0,0
0,0,1,1//注意这一行的最后一个1
0,0,-1,0
投影变换(透视投影),投影变换后,所以的点都被投影到X[-1,1]、Y[-1,1],Z[0,1]的范围。
投影变换定义了视域体,并负责将视域体中的几何体投影到投影窗口中。
视口矩阵:
m_ScreenWidth/2, 0, 0, 0,
0, -m_ScreenHeight/2, 0, 0,
0, 0, 1, 0,
m_ScreenWidth/2, m_ScreenHeight/2, 0, 1
视口变换的任务是将顶点坐标从投影窗口转换到屏幕的一个矩形区域。
下面我们把转换之前的点定为(0,3700,-2000,1)(x,y,z,w)
依次进行视角变换->投影变换
- 视角变换后,w的值依然为1
- 然后进行投影变换,
可以注意到投影变换后w的值由视角变换的结果的z分量决定,即w=z(视角变换后的z)*1;而这个z的几何意义又是什么呢?我们知道,视角变换后摄像机被移到坐标系原点,镜头变换为面朝z的正方向,这时z如果为负值,不就是说明这个点在摄像机的后面不可见吗?
下面继续进行变换,上面说到投影变换后w的值由视角变换的结果的z分量决定,也就是说它跟z的符号相同,如果z为负,w也为负,说明是从背面投影过来,w为正是从正面投影到投影平面。
在光晕的实现中,太阳可能会从摄像机背面投影在z=1的平面上,这时w为负,这时候是不应该渲染光晕的。需要剪裁掉,所以渲染的条件为w>=0.0f
下面给出计算太阳屏幕坐标的代码和光晕渲染代码:
计算太阳屏幕坐标:
void CHaloManager::ComputeSunInScreen()
{
D3DXMATRIX matConcat, matViewport;//视口变化矩阵
D3DXMATRIX view,proj;
D3DXVECTOR4 vResult;
matViewport = D3DXMATRIX(
m_ScreenWidth/2, 0, 0, 0,
0, -m_ScreenHeight/2, 0, 0,
0, 0, 1, 0,
m_ScreenWidth/2, m_ScreenHeight/2, 0, 1);
HRESULT hr;
hr=m_Device->GetTransform(D3DTS_VIEW,&view);
if(FAILED(hr))
MessageBox(0,"视角矩阵获取出错","",MB_OK);
hr=m_Device->GetTransform(D3DTS_PROJECTION,&proj);
if(FAILED(hr))
MessageBox(0,"投影矩阵获取出错","",MB_OK);
D3DXMatrixIdentity(&matConcat);
matConcat*=view;//视角
matConcat*=proj;//投影
matConcat*=matViewport;//视口
D3DXVec3Transform(&vResult,&m_sunpos,&matConcat);
m_x=vResult.x/vResult.w;//太阳屏幕坐标x
m_y=vResult.y/vResult.w;//太阳屏幕坐标y
m_w=vResult.w;
}
渲染光晕
void CHaloManager::Render()
{
ComputeSunInScreen();
if(m_w>=0.0f)//渲染条件为m_w>=0.0f,即太阳是从正面投影
{
int iAwayX;
if(m_x<0)
{
iAwayX=-m_x;
}
else if(m_x>m_ScreenWidth)
{
iAwayX=m_x-m_ScreenWidth;
}
else
{
iAwayX=0;
}
int iAwayY;
if(m_y<0)
{
iAwayY=-m_y;
}
else if(m_y>m_ScreenHeight)
{
iAwayY=m_y-m_ScreenHeight;
}
else
{
iAwayY=0;
}
float fAway=float((iAwayX>iAwayY)?iAwayX:iAwayY);
if(fAway>m_border)return;//m_border为边界距离
float RealIntensity=1.0f-(fAway/m_border);//亮度
int CenterofScreenX=m_ScreenWidth/2;
int CenterofScreenY=m_ScreenHeight/2;
int dx=CenterofScreenX-m_x;
int dy=CenterofScreenX-m_y;
//计算顶点位置,颜色,以及光晕的大小
stSCRVertex* v;
m_vertexbuffer->Lock( 0, (int)m_halolist.size()*6*sizeof(stSCRVertex), (void**)&v, 0);
for(int i=0;i<m_halolist.size();i++)
{
int CenterofHaloX=CenterofScreenX-(float)(dx*m_halolist[i].GetPos());
int CenterofHaloY=CenterofScreenY-(float)(dy*m_halolist[i].GetPos());
int HaloSize=m_ScreenWidth*m_halolist[i].GetSize()/2;
//更新光晕的亮度
D3DXCOLOR color = m_halolist[i].GetColor();
color.a *= RealIntensity;
if (color.a > 1.0f) color.a = 1.0f;
if (color.a < 0.0f) color.a = 0.0f;
v->_color=color;
v->_rhw=1.0f;
v->_x=(float)(CenterofHaloX-HaloSize);
v->_y=(float)(CenterofHaloY-HaloSize);
v->_z=0.0f;
v->_tu=0.0f;
v->_tv=0.0f;
v++;
v->_color=color;
v->_rhw=1.0f;
v->_x=(float)(CenterofHaloX+HaloSize);
v->_y=(float)(CenterofHaloY-HaloSize);
v->_z=0.0f;
v->_tu=1.0f;
v->_tv=0.0f;
v++;
v->_color=color;
v->_rhw=1.0f;
v->_x=(float)(CenterofHaloX+HaloSize);
v->_y=(float)(CenterofHaloY+HaloSize);
v->_z=0.0f;
v->_tu=1.0f;
v->_tv=1.0f;
v++;
v->_color=color;
v->_rhw=1.0f;
v->_x=(float)(CenterofHaloX-HaloSize);
v->_y=(float)(CenterofHaloY-HaloSize);
v->_z=0.0f;
v->_tu=0.0f;
v->_tv=0.0f;
v++;
v->_color=color;
v->_rhw=1.0f;
v->_x=(float)(CenterofHaloX+HaloSize);
v->_y=(float)(CenterofHaloY+HaloSize);
v->_z=0.0f;
v->_tu=1.0f;
v->_tv=1.0f;
v++;
v->_color=color;
v->_rhw=1.0f;
v->_x=(float)(CenterofHaloX-HaloSize);
v->_y=(float)(CenterofHaloY+HaloSize);
v->_z=0.0f;
v->_tu=0.0f;
v->_tv=1.0f;
v++;
}
m_vertexbuffer->Unlock();
//设置融合
m_Device->SetRenderState( D3DRS_ALPHABLENDENABLE, TRUE );
m_Device->SetRenderState(D3DRS_SRCBLEND, D3DBLEND_SRCALPHA);
m_Device->SetRenderState(D3DRS_DESTBLEND, D3DBLEND_ONE);
m_Device->SetTextureStageState(0, D3DTSS_ALPHAARG1, D3DTA_TEXTURE);
m_Device->SetTextureStageState(0, D3DTSS_ALPHAARG2, D3DTA_DIFFUSE);
m_Device->SetTextureStageState(0, D3DTSS_ALPHAOP, D3DTOP_MODULATE);
m_Device->SetTextureStageState(0, D3DTSS_COLORARG1, D3DTA_DIFFUSE);
m_Device->SetTextureStageState(0, D3DTSS_COLORARG2, D3DTA_TEXTURE);
m_Device->SetTextureStageState(0, D3DTSS_COLOROP, D3DTOP_MODULATE);
//m_Device->SetMaterial(&m_mtrl);//这句好像没有什么用
m_Device->SetFVF(D3DFVF_HALO);
m_Device->SetStreamSource(0, m_vertexbuffer, 0, sizeof(stSCRVertex));
for (int n=0; n < m_halolist.size(); n++) {
m_Device->SetTexture(0, m_halolist[n].GetTexture());
m_Device->DrawPrimitive(D3DPT_TRIANGLELIST, n*6, 2);
}
m_Device->SetRenderState( D3DRS_ALPHABLENDENABLE, FALSE);
}
}
吃了今天的苦头,我知道了想要走得更远,基础很重要呀。真的有必要软件实现一次3D流水线。
推荐阅读
-
实现光晕效果和思考3D流水线问题
-
纯干货分享 | 研发效能提升——敏捷需求篇-而敏捷需求是提升效能的方式中不可或缺的模块之一。 云智慧的敏捷教练——Iris Xu近期在公司做了一场分享,主题为「敏捷需求挖掘和组织方法,交付更高业务价值的产品」。Iris具有丰富的团队敏捷转型实施经验,完成了企业多个团队从传统模式到敏捷转型的落地和实施,积淀了很多的经验。 这次分享主要包含以下2个部分: 第一部分是用户影响地图 第二部分是事件驱动的业务分析Event driven business analysis(以下简称EDBA) 用户影响地图,是一种从业务目标到产品需求映射的需求挖掘和组织的方法。 在软件开发过程中可能会遇到一些问题,比如大家使用不同的业务语言、技术语言,造成角色间的沟通阻碍,还会导致一些问题,比如需求误解、需求传递错误等;这会直接导致产品的功能需求和要实现的业务目标不是映射关系。 但在交付期间,研发人员必须要将这些需求实现交付,他们实则并不清楚这些功能需求产生的原因是什么、要解决客户的哪些痛点。研发人员往往只是拿到了解决方案,需要把它实现,但没有和业务侧一起去思考解决方案是否正确,能否真正的帮助客户解决问题。而用户影响地图通常是能够连接业务目标和产品功能的一种手段。 我们在每次迭代里加入的假设,也就是功能需求。首先把它先实现,再逐步去验证我们每一个小目标是否已经实现,再看下一个目标要是什么。那影响地图就是在这个过程中帮我们不断地去梳理目标和功能之间的关系。 我们在软件开发中可能存在的一些问题 针对这些问题,我们如何避免?先简单介绍做敏捷转型的常规思路: 先做团队级的敏捷,首先把产品、开发、测试人员,还有一些更后端的人员比如交互运维的同学放在一起,组成一个特训团队做交付。这个团队要包含交付过程中所涉及的所有角色。 接着业务敏捷要打通整个业务环节和研发侧的一个交付。上图中可以看到在敏捷中需求是分层管理的,第一层是业务需求,在这个层级是以用户目标和业务目标作为输入进行规划,同时需要去考虑客户的诉求。业务人员通过获取到的业务需求,进一步的和团队一起将其分解为产品需求。所以业务需求其实是我们真正去发布和运营的单元,它可以被独立发布到我们的生产环境上。我们的产品需求其实就是产品的具体功能,它是我们集成和测试的对象,也就是我们最终去部署到系统上的一个基本单元。产品需求再到了我们的开发团队,映射到迭代计划会上要把它分解为相应的技术任务,包括我们平时所说的比如一些前端的开发、后端的开发、测试都是相应的技术任务。所以业务敏捷要达到的目标是需要去持续顺畅高质量的交付业务价值。 将这几个点串起来,形成金字塔结构。最上层我们会把业务目标放在整个金字塔的塔尖。这个业务目标是通过用户的目标以及北极星指标确立的。确认业务目标后再去梳理相应的业务流程,最后生产。另外产品需求包含了操作流程和业务规则,具需求交付时间、工程时间以及我们的一些质量标准的要求。 谈到用户影响的地图,在敏捷江湖上其实有一个传说,大家都有一个说法叫做敏捷需求的“任督二脉”。用户影响地图其实就是任脉,在黑客马拉松上用过的用户故事地图其实叫督脉。所以说用户影响地图是在用户故事地图之前,先帮我们去梳理出我们要做哪些东西。当我们真正识别出我们要实现的业务活动之后,用户故事地图才去梳理我们整个的业务工作流,以及每个工作流节点下所要包含的具体功能和用户故事。所以说用户影响地图需要解决的问题,我们包括以下这些: 首先是范围蔓延,我们在整张地图上,功能和对应的业务目标是要去有一个映射的。这就避免了一些在我们比如有很多干系人参与的会议上,那大家都有不同想法些立场,会提出很多需求(正确以及错误的需求)。这个时候我们会依据目标去看这些需求是否真的是会影响我们的目标。 这里提到的错误需求,比如是利益相关的人提出的、客户认为产品应该有的、某个产品经理需求分析师认为可以有的....但是这些功能在用户影响地图中匹配不到对应目标的话,就需要降低优先级或弃掉。另外,通常我们去制定解决方案的时候,会考虑较完美的实现,导致解决方案括很多的功能。这个时候关键目标至关重要,会帮助我们梳理筛选、确定优先级。 看一下用户影响到地图概貌 总共分为一个三层的结构: 第一层why,你的业务目标哪个是最重要的,为什么?涉及到的角色有哪些? 第二层how ,怎样产生影响?影响用户角色什么样的行为? (不需要去列出所有的影响,基于业务目标) 第三层what,最关键的是在梳理需求时不需一次把所有细节想全,这通常团队中经常遇到的问题。 我们用这个例子来看一下 这是一个客服中心的影响地图,业务目标是 3个月内不增加客服人数的前提下能支持1.5倍的用户数。此业务目标设定是符合 smart 原则的,specific非常的具体,miserable 是可以衡量的,action reoriented是面向活动的, real list 也是很实际的。 量化的目标会指引我们接下来的行动,梳理一个业务目标,尽量去量化,比如 :我们通过打造一条什么样的流水线,能够提高整个部署的效率,时间是原来的 1/2 。这样才是一个能量化的有意义的目标。 回到这幅图, how 层级识别出来的内容,客服角色:想要对它施加的影响,把客户引导到论坛上,帮助客户更容易的跟踪问题,更快速的去定位问题。初级用户:方论坛上找到问题。高级用户:在论坛上回答问题。通过我们这些用户角色,进行活动,完成在不增加客户客服人数的前提下支持更多的用户数量。 最后一个层级,才是我们日常接触比较多的真正的功能的特性和需求,比如引导到客户到论坛上,其实这个产品就需要有一个常见问题的论坛的链接。这个层次需要我们团队进一步地在交付,在每个迭代之前做进一步的梳理,细化成相应的用户故事。 这个是云智慧团队中,自己做的影响地图的范例,可以看下整个的层级结构。序号表示优先级。 那我们用户影响地图可以总结为: