博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
#ifdef WIN32有什么作用?
阅读量:4141 次
发布时间:2019-05-25

本文共 285 字,大约阅读时间需要 1 分钟。

       经常在程序中碰到#ifdef WIN32这样的代码,实际上这提供了一种抽象机制,使代码可以在不同平台间移植. 下面给出一个简单的例子:

#include
using namespace std;#ifdef WIN32#define HAHA 1#else#define HAHA 0#endifint main(){ int i = HAHA; cout << i << endl; return 0;}

      程序结果为:1

      为什么是1呢? 程序中没有看到有WIN32的定义啊,不慌,点击“工程”“设置”“C/C++”, 看到了下面图片,哦,原来如此!

 

 

转载地址:http://pnzti.baihongyu.com/

你可能感兴趣的文章
ndarray维度认识及np.concatenate函数详解
查看>>
keras扁平化 激活函数 避免过拟合技巧
查看>>
keras回调监控函数
查看>>
取整函数(ceil、floor、round)
查看>>
机器学习工程师 - Udacity 卷积层的维度计算
查看>>
敏感性和特异性
查看>>
接受者操作特征曲线ROC
查看>>
参考文献的引用的格式
查看>>
pytorch 报错No module named torch
查看>>
对Tensor进行变换 class torchvision.transforms.Normalize(mean, std) 给定均值:(R,G,B) 方差:(R,G,B),将会把Tensor正则化
查看>>
RuntimeError: output with shape [1, 28, 28] doesnt match the broadcast shape [3, 28, 28]
查看>>
pytorch 实现MNIST大概方法草算,注意数据结构类型
查看>>
torch helper文件
查看>>
pytorch.sum() 中的dim 及pytorch官方手册
查看>>
logsoftmax(dim=1)是对批量样本中的每个样本取概率,而不是针对每个特征
查看>>
pytorch 中 logsoftmax 与 softmax的区别
查看>>
log_softmax与softmax区别
查看>>
Softmax v.s. LogSoftmax
查看>>
torch.nn.LogSoftmax()与输入具有相同尺寸和形状的张量,其值在[-inf,0)范围内
查看>>
pytorch 神经网络训练注意最后一批次输出的数据体量
查看>>