C語言訓練之杭電OJ
C語言訓練之杭電OJ
一、水仙花數
Problem Description問題描述
春天是鮮花的季節,水仙花就是其中最迷人的代表,數學上有個水仙花數,他是這樣定義的:
“水仙花數”是指一個三位數,它的各位數字的立方和等於其本身,比如:153=13+53+3^3。
現在要求輸出所有在m和n範圍內的水仙花數。
Input輸入
輸入資料有多組,每組佔一行,包括兩個整數m和n(100<=m<=n<=999)。
Output輸出
對於每個測試例項,要求輸出所有在給定範圍內的水仙花數,就是說,輸出的水仙花數必須大於等於m,並且小於等於n,如果有多個,則要求從小到大排列在一行內輸出,之間用一個空格隔開;
如果給定的範圍內不存在水仙花數,則輸出no;
每個測試例項的輸出佔一行。
Sample Input輸入樣例
100 120
300 380
Sample Output輸出樣例
no
370 371
程式碼如下:
#include<stdio.h>
#include<math.h>
int main()
{
int m,n,i;
while(~scanf("%d %d",&n,&m))
{
double s=n,temp=n;
for(i=1;i<m;i++,temp=sqrt(temp))
s+=sqrt(temp);
printf("%.2lf\n",s);
}
}
總結:
初時未注意到本題有多組資料輸入,只讀入了一組資料,寫完程式碼審閱時發現有問題,決定把scanf("%d %d",&n,&m);改為while(~scanf("%d %d",&n,&m))。結果,修改while語句時後面多了一個(分號);編譯器又沒報錯,提交就一直不通過,粗心大意真是要不得!
二、求數列的和
Problem Description問題描述
數列的定義如下:
數列的第一項為n,以後各項為前一項的平方根,求數列的前m項的和。
Input輸入
輸入資料有多組,每組佔一行,由兩個整數n(n<10000)和m(m<1000)組成,n和m的含義如前所述。
Output輸出
對於每組輸入資料,輸出該數列的和,每個測試例項佔一行,要求精度保留2位小數。
Sample Input輸入樣例
81 4
2 2
Sample Output輸出樣例
94.73
3.41
#include <stdio.h>
#include<math.h>
int main()
{
int m,n,i,sum;
while(~scanf("%d %d",&m,&n))
{
int count=0;
for(i=m;i<=n;i++)
{
sum = pow(i%10,3) + pow((i/10)%10,3) + pow(i/100,3);
if(sum==i)
{
count++;
if(count==1) printf("%d",i);
else printf(" %d",i);
}
}
if(count==0) printf("no");
printf("\n");
}
}
總結:
由於本題有多組資料輸入,count在每組資料的for迴圈內都要做為判斷條件,所以每一次count的值都需要初始化。開始時一直沒注意到這一點,把count的賦值放在while迴圈前,結果測試樣例能通過,提交卻不能通過,思維還是不夠縝密。
相關文章
- 杭電OJ2029迴文串——Palindromes _easy version(C語言解析)C語言
- 杭電oj 2020
- 杭電OJ 2032楊輝三角
- 杭電OJ 2066 一個人的旅行
- 杭電OJ1040解題報告
- C語言課程訓練系統題-字串cquptC語言字串
- 知識增強的預訓練語言模型系列之ERNIE:如何為預訓練語言模型注入知識模型
- 杭電OJ 2048 完全錯排的可能性
- 自訓練 + 預訓練 = 更好的自然語言理解模型模型
- C語言-for迴圈之窮舉法練習C語言
- 【預訓練語言模型】 使用Transformers庫進行BERT預訓練模型ORM
- 自然語言處理中的語言模型預訓練方法自然語言處理模型
- 新型大語言模型的預訓練與後訓練正規化,谷歌的Gemma 2語言模型模型谷歌Gemma
- 新型大語言模型的預訓練與後訓練正規化,Meta的Llama 3.1語言模型模型
- 杭電OJ 2028求n個數的最小公倍數
- C語言練習——資料加密C語言加密
- Findings | 中文預訓練語言模型回顧模型
- 常見預訓練語言模型簡述模型
- 針對OJ的JAVA 輸入(PAT,牛客網,杭電 etc)Java
- 【預訓練語言模型】使用Transformers庫進行GPT2預訓練模型ORMGPT
- 新型大語言模型的預訓練與後訓練正規化,蘋果的AFM基礎語言模型模型蘋果
- C語言練手專案--C 語言製作簡單計算器C語言
- 新型大語言模型的預訓練與後訓練正規化,阿里Qwen模型阿里
- 預訓練語言模型:還能走多遠?模型
- C/C++高階訓練之指標初識C++指標
- COLING 2020 | CharBERT:字元敏感的預訓練語言模型字元模型
- 使用 LoRA 和 Hugging Face 高效訓練大語言模型Hugging Face模型
- 知識增廣的預訓練語言模型K-BERT:將知識圖譜作為訓練語料模型
- 《C程式設計語言》 練習3-5C程式程式設計
- 大一C語言程式設計練習題C語言程式設計
- 【C語言練習題】小球反彈問題C語言
- 知識增強的預訓練語言模型系列之KEPLER:如何針對上下文和知識圖譜聯合訓練模型
- 00 預訓練語言模型的前世今生(全文 24854 個詞)模型
- C 語言程式設計利器之 CLion程式設計
- C語言C語言
- 2024 CCF BDCI 小樣本條件下的自然語言至圖查詢語言翻譯大模型微調|Google T5預訓練語言模型訓練與PyTorch框架的使用大模型GoPyTorch框架
- 杭電2046
- 新預訓練模型CodeBERT出世,程式語言和自然語言都不在話下模型