我的代码中有一个小问题,用于从一系列数字中找到最小值。当我初始化min = 0
时,最小值变为0.但是当我没有初始化min
时,答案是正确的!如何正确初始化“min”变量?
为什么会发生这种情况? Xcode告诉我我应该初始化min
变量。
int a[20] = {0};
int max = 0;
int min ;
int sum = 0;
srand((unsigned)time(NULL));
for (int i = 1; i <= 20; i++) {
a[i] = 100 + rand()%(200 - 100 + 1);
if (max < a[i]) {
max = a[i];
}
printf("%d,%d\n",a[i],i);
if (min > a[i]) {
min = a[i];
}
sum += a[i];
}
printf("最大值:%d\n",max);
printf("最小值:%d\n",min);
printf("平均值:%d\n",sum/20);
你认为'if(min> a [i])'是做什么的?只需从'limits.h'初始化'min'到'INT_MAX',一切都可以正常工作。 –