CUDA版Grabcut的实现

时间:2022-09-08 00:17:29

  在上次用 CUDA实现导向滤波 后,想着导向滤波能以很小的mask还原高分辨率下的边缘,能不能搞点事情出来,当时正好在研究Darknet框架,然后又看到grabcut算法,用opencv试了下,感觉效果有点意思,后面想了下,这几个可以连在一起,先读取高分辨率的图像,然后用降低分辨率先通过yolov3算出人物框(非常稳定,不跳,几乎不会出现有人而找不到的情况),再用grabcut算出低mask,然后用这个mask结合原图用导向滤波得到高分辨率下清晰边缘的分割图,最后再把CUDA算出的结果直接丢给UE4/Unity3D的对应DX11中。

  先放出cuda版grabcut的效果图。

  CUDA版Grabcut的实现

   当然opencv本身提供的grabcut是用cpu算的,416*416差不多有个几桢左右,肯定不满足要求,所以在这个前提下,用Cuda来实现整个grabcut整个流程。

  因要集成到UE4/Untiy3D对应软件中,在window本台下,我们首先需要如下。

  1 拿到darknet源码,C风格代码,说实话,没想过能看到这种短小精湛的深度学习模型框架,带cuda与cudnn,直接在VS下建一个动态链接库,把相应代码放进来,不多,改动几个Linux下的函数,包含编译符GPU与CUDNN,然后修改darknet.h这个函数,dllexport这个文件下函数,后期还可以改下,这个文件下的编译符移到别的位置,pthread头文件的引用这些,以及可以直接传入GPU数据这几点。opencv4虽然已经有yolo3的实现,但是我们要GPU的,后续的操作几乎全在GPU上。

  2 我们主要是参照opencv里的grabcut实现,为了更好的参数一些数据,我们最好编译自己的opencv版本,我是用的opencv-4.0.0-alpha,比较老的一个版本,需要带opencv_contrib,包含opencv_cuda相关的模块,主要是后期我们实现cuda 版grabcut如果不好确认我们是否正常实现就可以调试进去看数据值,看源码,以及用GpuMat/PtrStepSz,这个简单封装真的很适合处理图像数据。

  如上二点完成后,我们可以简单分析下grabcut算法主要由那种算法构成,如何完成一个流程,一次大迭代主要如下,主要是先定框,框内为可能前景区,框外为背景区,二个区域分别为Kmeans分类,然后二个分类的数据分别GMM建立模型,最后用GMM算出最大流算法需要的每点的source/sink,建立graph,用GPU友好的maxflow算法push-relabel得到最小切,也就是mask,然后把mask给GMM重新建立模型然后重复这个过程。

  如上所说,我们主要实现三种算法,分别是kmeans,gmm,push-relabel。下面如无别的说明,本机给的是在1070下416*416分辨率下的时间。

  首先讲下kmeans的优化,kmeans的实现比较简单,就是一个不断重新分配中心点至到稳定的过程,其中有个过程是把数据根据前后景分别归类(我们假设聚合为5块),最直观最简单的方法就是用原子操作。

__global__ void updateClusterAtomic(PtrStepSz<uchar4> source, PtrStepSz<uchar> clusterIndex, kmeansI& meansbg, kmeansI& meansfg)
{
const int idx = blockDim.x * blockIdx.x + threadIdx.x;
const int idy = blockDim.y * blockIdx.y + threadIdx.y;
if (idx < source.cols && idy < source.rows)
{
float4 color = rgbauchar42float4(source(idy, idx));
//背景块,使用kcentersbg,否则使用kcentersfg
kmeansI& kmeans = (!inRect(idx, idy)) ? meansbg : meansfg;
int index = clusterIndex(idy, idx);
atomicAdd(&kmeans.kcenters[index].x, color.x);
atomicAdd(&kmeans.kcenters[index].y, color.y);
atomicAdd(&kmeans.kcenters[index].z, color.z);
atomicAdd(&kmeans.kcenters[index].w, color.w);
}
}

updateClusterAtomic

  用Nsight看了下时间,花费超过1ms了,我是想到所有线程最后归类时都只操作10块地方,原子操作在这有点把多线程变成有限的几个能同时做事了。  

  CUDA版Grabcut的实现

  因此需要换种想法,很简单,不用原子操作,用一部分线程如32*8,遍历最个纹理数据,然后在一个线程里32*8个数据再整合,使用这步后,时间降低0.5ms左右,利用的还不是很完全,毕竟一次kmeans稳定需要遍历十几次左右,这个过程就要了5ms后面就不用搞了,在这基础上,结合共享显存,每个点一个线程先用共享显存处理后放入对应grid块大小的显存中,然后数据除32*8的grid块执行上面的操作,这个操作包含后面统计等加起0.12ms,这样十几次迭代也就不到2ms,不过我没想到的是,从cudaMemcpyDeviceToHost一个int32的四字节Nsight给的时间很低0.001ms,但是从上面的简隔来看,应该有0.1ms了,应该还有一些别的花费,所以很多操作,后续的统计计算我就是用GPU里一个核心来算,也不先download给CPU算然后再upload上来,但是这个操作还没想到办法避免,毕竟需要在CPU上判定是否已经稳定后关闭循环。

//把source所有收集到一块gridDim.x*gridDim.y块数据上。
template<int blockx, int blocky>
__global__ void updateCluster(PtrStepSz<uchar4> source, PtrStepSz<uchar> clusterIndex, PtrStepSz<uchar> mask, float4* kencter, int* kindexs)
{
__shared__ float3 centers[blockx*blocky][CUDA_GRABCUT_K2];
__shared__ int indexs[blockx*blocky][CUDA_GRABCUT_K2];
const int idx = blockDim.x * blockIdx.x + threadIdx.x;
const int idy = blockDim.y * blockIdx.y + threadIdx.y;
const int threadId = threadIdx.x + threadIdx.y * blockDim.x;
#pragma unroll CUDA_GRABCUT_K2
for (int i = ; i < CUDA_GRABCUT_K2; i++)
{
centers[threadId][i] = make_float3(.f);
indexs[threadId][i] = ;
}
__syncthreads();
if (idx < source.cols && idy < source.rows)
{
//所有值都放入共享centers
int index = clusterIndex(idy, idx);
bool bFg = checkFg(mask(idy, idx));
int kindex = bFg ? index : (index + CUDA_GRABCUT_K);
float4 color = rgbauchar42float4(source(idy, idx));
centers[threadId][kindex] = make_float3(color);
indexs[threadId][kindex] = ;
__syncthreads();
//每个线程块进行二分聚合,每次操作都保存到前一半数组里,直到最后保存在线程块里第一个线程上(这块比较费时,0.1ms)
for (uint stride = blockDim.x*blockDim.y / ; stride > ; stride >>= )
{
//int tid = (threadId&(stride - 1));
if (threadId < stride)//stride 2^n
{
#pragma unroll CUDA_GRABCUT_K2
for (int i = ; i < CUDA_GRABCUT_K2; i++)
{
centers[threadId][i] += centers[threadId + stride][i];
indexs[threadId][i] += indexs[threadId + stride][i];
}
}
//if (stride > 32)
__syncthreads();
}
//每块的第一个线程集合,把共享centers存入临时显存块上kencter
if (threadIdx.x == && threadIdx.y == )
{
int blockId = blockIdx.x + blockIdx.y * gridDim.x;
#pragma unroll CUDA_GRABCUT_K2
for (int i = ; i < CUDA_GRABCUT_K2; i++)
{
int id = blockId * * CUDA_GRABCUT_K + i;
kencter[id] = make_float4(centers[][i], .f);
kindexs[id] = indexs[][i];
}
}
}
} //block 1*1,threads(暂时选32*4),对如上gridDim.x*gridDim.y的数据用blockx*blocky个线程来处理
template<int blockx, int blocky>
__global__ void updateCluster(float4* kencter, int* kindexs, kmeansI& meansbg, kmeansI& meansfg, int& delta, int gridcount)
{
__shared__ float3 centers[blockx*blocky][CUDA_GRABCUT_K2];
__shared__ int indexs[blockx*blocky][CUDA_GRABCUT_K2];
const int threadId = threadIdx.x + threadIdx.y * blockDim.x;
#pragma unroll CUDA_GRABCUT_K2
for (int i = ; i < CUDA_GRABCUT_K2; i++)
{
centers[threadId][i] = make_float3(.f);
indexs[threadId][i] = ;
}
__syncthreads();
//int gridcount = gridDim.x*gridDim.y;
int blockcount = blockDim.x*blockDim.y;
int count = gridcount / blockcount + ;
//每块共享变量,每个线程操纵自己对应那块地址,不需要同步,用线程块操作一个大内存
for (int i = ; i < count; i++)
{
int id = i*blockcount + threadId;
if (id < gridcount)
{
#pragma unroll CUDA_GRABCUT_K2
for (int j = ; j < CUDA_GRABCUT_K2; j++)
{
int iid = id * CUDA_GRABCUT_K2 + j;
centers[threadId][j] += make_float3(kencter[iid]);
indexs[threadId][j] += kindexs[iid];
}
}
}
__syncthreads();
for (uint stride = blockDim.x*blockDim.y / ; stride > ; stride >>= )
{
if (threadId < stride)
{
#pragma unroll CUDA_GRABCUT_K2
for (int i = ; i < CUDA_GRABCUT_K2; i++)
{
centers[threadId][i] += centers[threadId + stride][i];
indexs[threadId][i] += indexs[threadId + stride][i];
}
}
//if (stride > 32)
__syncthreads();
}
if (threadIdx.x == && threadIdx.y == )
{
int count = ;
//收集所有信息,并重新更新cluster,记录变更的大小
for (int i = ; i < CUDA_GRABCUT_K; i++)
{
meansfg.kcenters[i] = make_float4(centers[][i], .f);
if (indexs[][i] != )
meansfg.cluster[i] = meansfg.kcenters[i] / indexs[][i];
count += abs(indexs[][i] - meansfg.length[i]);
meansfg.length[i] = indexs[][i];
}
for (int i = CUDA_GRABCUT_K; i < CUDA_GRABCUT_K2; i++)
{
meansbg.kcenters[i - CUDA_GRABCUT_K] = make_float4(centers[][i], .f);
if (indexs[][i] != )
meansbg.cluster[i - CUDA_GRABCUT_K] = meansbg.kcenters[i - CUDA_GRABCUT_K] / indexs[][i];
count += abs(indexs[][i] - meansbg.length[i - CUDA_GRABCUT_K]);
meansbg.length[i - CUDA_GRABCUT_K] = indexs[][i];
}
delta = count;
}
}
void updateCluster_gpu(PtrStepSz<uchar4> source, PtrStepSz<uchar> clusterIndex, PtrStepSz<uchar> mask, float4* kencter,
int* kindexs, kmeansI& meansbg, kmeansI& meansfg, int& delta, cudaStream_t stream = nullptr)
{
dim3 grid(cv::divUp(source.cols, block.x), cv::divUp(source.rows, block.y));
updateCluster<BLOCK_X, BLOCK_Y> << <grid, block, , stream >> > (source, clusterIndex, mask, kencter, kindexs);
updateCluster<BLOCK_X, BLOCK_Y> << <, block, , stream >> > (kencter, kindexs, meansbg, meansfg, delta, grid.x*grid.y);
}
void KmeansCuda::compute(GpuMat source, GpuMat clusterIndex, GpuMat mask, int threshold)
{
int delta = threshold + ;
initKmeans_gpu(*bg, *fg);
while (delta > threshold)
{
findNearestCluster_gpu(source, clusterIndex, mask, *bg, *fg);
updateCluster_gpu(source, clusterIndex, mask, dcenters, dlenght, *bg, *fg, *d_delta);
//可以每隔五次调用一次这个
cudaMemcpy(&delta, d_delta, sizeof(int), cudaMemcpyDeviceToHost);
}
}

updateCluster

  CUDA版Grabcut的实现

  这里肯定有点反直觉,十多行代码扩展到百多行,效率还增加了十倍,但是GPU运算就是这样,每步能多利用核心就行,还有,cudaMemcpy花费真的大,这里有个失败的尝试,因为在这基础上,都是用更多的计算核心带来的好处,就想把这个算法再扩展了下,前景与背景二个各分五类,一共十类,故当前准备用block的z为10,当做每块的索引,和我想象不同,这个要的时间在0.4ms左右,时间关系,没有继续测试,后续针对这块再仔细分析比对下。

  如下显示的效果图。

  CUDA版Grabcut的实现

  然后就是GMM的实现,这个实现和k-means过程比较相似,代码就不贴了,当时效果完成后,我的主要疑问在如果确认我的实现是对的,但是下面这张图出来后,我就知道应该是对了。GMM对k-means每块求的结果,然后用这结果来得到颜色的分类,这二者效果应该差不多是一样,但是肯定又有点区别(image是k-means的结果,seg image是GMM一次learning然后再分配的结果),当然最后确认还是我比较opencv里GMM里各个分类与我实现GMM的值的比较,一般来说,各个分类的平均值与个数相差不大,各个分类在所有点的比例类似,当然二者的结果不会完全一样,opencv中k-means中用k-means++随机选择五个差异比较大的中心,就算用opencv自己重复算同一张图,每次结果都会有细小区别。

  CUDA版Grabcut的实现

  最后是maxflow的实现,这个过程我参照了https://web.iiit.ac.in/~vibhavvinet/Software/ 的实现,要说这份代码稍稍改下还是能运行的,就是数据来源全在一个文件上,包含formsource,tosink,edge的信息,主要查看push与relabel与bfs的实现,可以去掉一些很多无关紧要的代码,并且与opencv对接,所有显存全用gpumat代码,差不多只有200行左右的代码。记的用这里的数据如person/sponge大约50多次迭代push-relabel后就能得到很好的结果(50次640*480类似的图只需要5-8ms,如果是416*416会更低,大约0.07ms就能一次迭代),在这给了我信心能继续做下去,当然后续结果另说。

  后续就是一个组合过程,组合过程参照opencv的实现。

void GrabCutCude::renderFrame(GpuMat x3source, cv::Rect rect)
{
cudaDeviceSynchronize(); rgb2rgba_gpu(x3source, source);
setMask_gpu(mask, rect);
kmeans->compute(source, clusterIndex, mask, ); //testShow(showSource, clusterIndex, "image");
gmm->learning(source, clusterIndex, mask); //testShow(showSource, clusterIndex, "seg image");
int index = ;
while (index++ < iterCount)
{
gmm->assign(source, clusterIndex, mask);
gmm->learning(source, clusterIndex, mask);
graph->addTermWeights(source, mask, *(gmm->bg), *(gmm->fg), lambda);
graph->addEdges(source, gamma);
graph->maxFlow(mask, maxCount);
}
}

renderFrame

  CUDA版Grabcut的实现

  其中有几处要求聚合运算,分别是求maxflow边的权重时,整张图的beta值,k-means更新聚合,gmm的训练,其中求beta只费了0.02ms,而k-means在0.12ms,而gmm的训练在1.2ms左右,beta只是把所有数据相加,每个像素对应4byte的共享存储,而k-means把数据取成十个类别,每个像素对应对应4byte*(3+1)*10个字节,时间花费0.02/0.12应该是一个正常范围,而gmm与k-means运算差不多完全一样,只是共享显存占用4byte*(3+3*3+1)*10个字节,时间花费比k-means多了十倍。这个比较很有意思,共享显存用越多,可以看到,GPU利用率会变低,求beta时,occupancy可以到达100%,而在k-meansk中只有25%,updateGMM只有6.25%。从前面k-means的代码看,每个聚合分成二部分,经调整GMM的前后部分发现,上部分降低线程块block可以降低时间,而下部分升高线程块block可以降低时间,其实这么算的话GMM的计算可以考虑分开算,让k-means的花费来看,最多0.3ms左右,1.2ms肯定还有很多优化空间。

  如下结合我们自己编译的darknet动态链接库组合的代码。

void testYoloGrabCutCuda()
{
cv::VideoCapture cap;
cv::VideoWriter video;
cv::Mat frame;
cv::Mat result, reframe; cap.open();
char* modelConfiguration = "yolov3.cfg";
char* modelWeights = "yolov3.weights"; network *net = load_network(modelConfiguration, modelWeights, );
layer l = net->layers[net->n - ];
set_batch_network(net, ); cv::Mat netFrame(net->h, net->w, CV_32FC3); const char* window_name = "yolo3";
//namedWindow(window_name);
cv::namedWindow("image");
cv::namedWindow("seg image");
createUI("1 image"); int height = net->w;
int width = net->h;
GrabCutCude grabCut;
grabCut.init(width, height);
GpuMat gpuFrame;
while (cv::waitKey() < )
{
updateUI("1 image", grabCut); cap >> frame;
cv::resize(frame, reframe, cv::Size(net->w, net->h));
//reframe.convertTo(netFrame, CV_32FC3, 1 / 255.0);
image im = mat_to_image(reframe);
float *predictions = network_predict(net, im.data);
int nboxes = ;
float thresh = 0.7f;
detection curdet = {};
float maxprob = thresh;
bool bFind = false;
detection *dets = get_network_boxes(net, im.w, im.h, thresh, , , , &nboxes);
for (int i = ; i < nboxes; i++)
{
auto det = dets[i]; //0 person 39 bottle
if (det.prob[] > maxprob)
{
maxprob = det.prob[];
curdet = det;
bFind = true;
}
} if (!bFind)
continue;
int width = curdet.bbox.w + ;
int height = curdet.bbox.h + ;
cv::Rect rectangle(curdet.bbox.x - width / .f, curdet.bbox.y - height / .f, width, height); if (bCpu)
{
cv::Mat bgModel, fgModel;
cv::grabCut(reframe, result, rectangle, bgModel, fgModel, iterCount, cv::GC_INIT_WITH_RECT);
}
else
{
grabCut.setParams(iterCount, gamma, lambda, maxCount);
cudaDeviceSynchronize();
gpuFrame.upload(reframe);
grabCut.renderFrame(gpuFrame, rectangle);
grabCut.mask.download(result);
} cv::compare(result, cv::GC_PR_FGD, result, cv::CMP_EQ);
cv::Mat foreground(reframe.size(), CV_8UC3, cv::Scalar(, , ));
reframe.copyTo(foreground, result);
cv::imshow("image", foreground);
cv::rectangle(reframe, rectangle, cv::Scalar(, , ), );
cv::imshow("seg image", reframe);
}
}

testYoloGrabCutCuda

  这段代码就是前面显示的结果,但是最后我发现,效果并不好,至少相对我参考那段maxflow效果来说,迭代五十次只需要5ms,再稍微优化下,k-means加上GMM可以控制在3ms内,这样加上yolo3也可以控制在30桢左右,但是,就前面那个杯子来说,需要迭代超过300次才能有个比较好的效果,如果是人,需要迭代上千次才能达到opencv的效果,那就没啥意义了,后续准备的优化与整合进引擎也暂停。

  至于为啥会这样,我分析了下,原参考push-relabel里数据是用种子生成的方式来生成formsource,tosink,这样formsource与tosink本来就接近结果了。

  CUDA版Grabcut的实现

  而按照opencv里的流程,出来的formsource与tosink图如下。

  CUDA版Grabcut的实现

  这样就需要迭代更多次的push_relabel来完成,主要因为这二次方式生成的GMM有很大区别,种子点生成的GMM各个分类与占比本来就好,我试验了下,扩大生成的边框,马上push_relabel的迭代次数加个百次,这是因为前景中混成来的背景越多,背景分类与占比越大,不确定区颜色通过GMM生成的formsource与tosink差值越小,虽然push-relabel每个点可以独立计算,很适合GPU算,但是他的push与relabel方式导致他每次可能就少数点在流动,大多点根本不满足要求。

  那么要考虑在100次迭代内得到比较好的效果,需要种子点方式,加上一些特定需求,比如背景与人变动不大,只是人在背景中的位置在不断变化,可以先用几桢算mask-rcnn得到mask,用mask得到相对准确的GMM模型,再把这个GMM模型算对应graph的点权重,然后用maxflow算的比较清晰的边,最后用导向滤波还原大图,这模式对现在的流程有些改动,故此记录下现在流程,如果后续有比较好的效果再来继续说。

  2019/3/20号更新:

  为了验证我的想法以及评论区有同学提出formsource与tosink用同一例子比较,深以为然。下面是先用几桢效果的图算出GMM,然后用这个GMM值直接算formsource与tosink,如下是对应的formsource与tosink图。

  CUDA版Grabcut的实现

void GrabCutCude::renderFrame(GpuMat x3source)
{
rgb2rgba_gpu(x3source, source);
graph->addEdges(source, gamma);
int index = ;
while (index++ < iterCount)
{
graph->addTermWeights(source, *(gmm->bg), *(gmm->fg), lambda);
graph->maxFlow(mask, maxCount);
}
}

renderFrame

  相对于原先方框里算k-means,GMM模型,这个是在已经得到GMM模型的情况下,用GMM直接算formsource与tosink,可以看到,相对于原来来说,结果已经很干净了,这种情况下,50次push-relabel就能得到比较准确的结果。

CUDA版Grabcut的实现的更多相关文章

  1. 整合Yolov3到游戏引擎

    这篇其实是前文 CUDA版Grabcut的实现 的后续,和上文一样,先放视频. (博客园好像不支持视频,gif文件太大,视频链接) 在上文用CUDA实现opencv下的grabcut后,当时问题主要是 ...

  2. 开源项目OEIP 游戏引擎与音视频多媒体&lpar;UE4&sol;Unity3D&rpar;

    现开源一个项目 OEIP 项目实现的功能Demo展示 这个项目演示了在UE4中,接入摄像机通过OEIP直接输出到UE4纹理上,并直接把UE4里的RenderTarget当做输入源通过OEIP里GPU管 ...

  3. Vulkan移植GpuImage&lpar;三&rpar;从A到C的滤镜

    前面移植了几个比较复杂的效果后,算是确认了复杂滤镜不会对框架造成比较大的改动,开始从头移植,现已把A到C的所有滤镜用vulkan的ComputeShader实现了,讲一些其中实现的过程. Averag ...

  4. 关于EMGU CV的那些事——1&period;环境搭建(win8 vs2012 emgucv3&period;0)

    http://blog.csdn.net/aptx704610875/article/details/46045689 楼主读研阶段研究图像处理,想用C#实现PTAM/PTAMM算法并用UNITY创建 ...

  5. CUDA Fortran for Scientists and Engineers第二版翻译

          下午听朋友说,NV把<CUDA Fortran for Scientists and Engineers>的出版权卖给了国内某出版商.第一反应是我们三翻译的岂不是白翻译了.第二 ...

  6. win10 &plus; cuda&lpar;v9&period;0&rpar; 安装TensorFlow-gpu版

    之前在实习公司的电脑上装过TensorFlow-gpu,那时候很快就装好了.但在自己的笔记本上装时,却搞了很久... 一部分原因是因为用校园网下载cuda toolkit 和cudnn ,总是在最后时 ...

  7. 伤透了心的pytorch的cuda容器版

    公司GPU的机器版本本比较低,找了好多不同的镜像都不行, 自己从anaconda开始制作也没有搞定(因为公司机器不可以直接上网), 哎,官网只有使用最新的NVIDIA驱动,安装起来才顺利. 最后,找到 ...

  8. Python2&period;7&plus;virtualenv&plus;CUDA 10&period;0版的pytorch v1&period;3&period;0 &plus;运行人群计数crowdcount-mcnn网络

    Python2.7$ python2 -m virtualenv pytorchenv$ source pytorchenv/bin/activate $ pip install ipython py ...

  9. Ubuntu 16&period;04安装N卡驱动、cuda、cudnn和tensorflow GPU版

    安装驱动 最开始在英伟达官网下载了官方驱动,安装之后无法登录系统,在登录界面反复循环,用cuda里的驱动也出现了同样的问题.最后解决办法是把驱动卸载之后,通过命令行在线安装驱动. 卸载驱动: sudo ...

随机推荐

  1. dede标签调用

    关键描述调用标签: <meta name="keywords" content="{dede:field name='keywords'/}">&l ...

  2. luke 操作记录

    精确查询(不需要切分词):得使用KeywordAnalyzer而不是StandardAnalyzer,原因如下: StandardAnalyzer:

  3. 转:12种JavaScript MVC框架之比较

    Gordon L. Hempton是西雅图的一位黑客和设计师,他花费了几个月的时间研究和比较了12种流行的JavaScript MVC框架,并在博客中总结了每种框架的优缺点,最终的结果是,Ember. ...

  4. PHP位运算 详细说明

    在实际应用中可以做用户权限的应用我这里说到的权限管理办法是一个普遍采用的方法,主要是使用到”位运行符”操作,& 位与运算符.| 位或运行符.参与运算的如果是10进制数,则会被转换至2进制数参与 ...

  5. HTML文档模式与盒模型

    HTML文档根据文档顶部的doctype声明来决定渲染模式,有标准模式(Standards Mode)与怪异模式(Quirks mode,或叫做混杂模式)两种模式. IE5及以前默认总是表现为怪异模式 ...

  6. 【NOIP2014】赛后总结

    noip考完了,心中所牵挂的一下子就消散了,感觉浑身很轻松. 说实话,我参加noip有好几次了,这应该会是我的最后一次,尽管如此,无论是在考试的前几天还是在考试的时候,心中都没有太多的紧张. 我在no ...

  7. linux命令find应用

    基本语法: find   path   -option   [-print ]   [-exec   -ok   command ]   {} \; find命令的参数: pathname: find ...

  8. android static达到Service与Activity于Handler沟通

    供static理解力,仅适用于static理解力,不喜勿喷 第一种方式:离Service中获取Activity的static变量,调用该静态变量的getHandler()获取Handler进行发送消息 ...

  9. Vijos1523贪吃的九头龙【树形DP】

    贪吃的九头龙 传说中的九头龙是一种特别贪吃的动物.虽然名字叫"九头龙",但这只是说它出生的时候有九个头,而在成长的过程中,它有时会长出很多的新头,头的总数会远大于九,当然也会有旧头 ...

  10. ACM做题过程中的一些小技巧

    1.一般用C语言节约空间,要用C++库函数或STL时才用C++; cout.cin和printf.scanf最好不要混用. 2.有时候int型不够用,可以用long long或__int64型(两个下 ...