我正在使用Flash为android实现一个增强现实应用程序。为了让应用程序在我的Android手机(nexus )上工作,手机摄像头也必须被激活。所以我需要两层背景,一层是我手机摄像头的背景,另一层在它的上面,在这个例子中是来自away3d的视图。
因此,设置一个BitmapData对象来保存最新的网络摄像头静止帧的信息,我可以做到这一点。
如果我使用papervision3D库和FLARToolkit,我们将使用从this video tutorial找到的以下代码部分来设置BitmapData
//import libraries
import org.libspark.flartoolkit.core.raster.rgb.FLARRgbRaster_BitmapData;
import org.libspark.flartoolkit.detector.FLARSingleMarkerDetector;
private function setupCamera():void
{
vid = new Video(640, 480);
cam = Camera.getCamera();
cam.setMode(320, 240, 10);
vid.attachCamera(cam);
addChild(vid);
}
private function setupBitmap():void
{
bmd = new BitmapData(640, 480);
bmd.draw(vid);
raster = new FLARRgbRaster_BitmapData(bmd);
detector = new FLARSingleMarkerDetector(fparams, mpattern, 80);
}
private function loop(e:Event):void
{
if(detector.detectMarkerLite(raster, 80) && detector.getConfidence() > 0.5)
{
vp.visible = true;
detector.getTransformMatrix(trans);
container.setTransformMatrix(trans);
bre.renderScene(scene, camera, vp);
}
else{
vp.visible = false}
}
catch(e:Error){}}}}然而,为了实现我的应用程序,我使用Away3D引擎和FLARManager,据我所知,这样做的方式非常不同。我已经实现了以下代码,但我认为它只是在3D视图的前面显示Flash相机,我不能检查我的应用程序是否工作,因为当我将标记放在屏幕前面时,它不会显示任何3D对象。
我的代码是:
//Setting Up Away3DLite Camera3D
import com.transmote.flar.camera.FLARCamera_Away3DLite;
private var camera3D:FLARCamera_Away3DLite;
this.camera3D = new FLARCamera_Away3DLite(this.flarManager, new Rectangle(0, 0, this.stage.stageWidth, this.stage.stageHeight));
//Setting Up the bitmapData
private function bitmap():void
{
c = Camera.getCamera();
c.setMode(320,240,10)
this.v.attachCamera(c);
addChild(this.v);
bmd = new BitmapData(640,480);
bmd.draw(this.v);
}您能帮我找出如何将这两者结合起来吗?
如果你能给我任何建议,我将不胜感激。
谢谢
发布于 2011-03-13 21:25:50
为了隔离您的问题,我会尝试将这两个部分分开,并确保每个部分都首先工作。这听起来像是你已经让相机部分工作了,试着只做一些3D (无AR)绘制一个立方体或其他什么。然后尝试实现AR,但让它做一些简单的事情,比如跟踪一些东西,或者使一个对象可见或不可见。然后开始组合它们。
https://stackoverflow.com/questions/5286449
复制相似问题