我正在寻找一个命令,它将接受(作为输入)多行文本,每行包含一个整数,并输出这些整数的和。
作为一点背景知识,我有一个日志文件,其中包括计时测量。通过grepping的相关行和一点sed重新格式化,我可以列出该文件中的所有时间。我想算出总数。我可以将这个中间输出输出到任何命令,以便进行最终求和。我过去一直使用expr,但除非它在RPN模式下运行,否则我不认为它会处理这个问题(即使这样也会很棘手)。
我怎样才能得到整数的和?
我正在寻找一个命令,它将接受(作为输入)多行文本,每行包含一个整数,并输出这些整数的和。
作为一点背景知识,我有一个日志文件,其中包括计时测量。通过grepping的相关行和一点sed重新格式化,我可以列出该文件中的所有时间。我想算出总数。我可以将这个中间输出输出到任何命令,以便进行最终求和。我过去一直使用expr,但除非它在RPN模式下运行,否则我不认为它会处理这个问题(即使这样也会很棘手)。
我怎样才能得到整数的和?
当前回答
好了,下面是如何在PowerShell (PowerShell核心,应该在Windows, Linux和Mac上工作)
Get-Content aaa.dat | Measure-Object -Sum
其他回答
使用GNU数据集util:
seq 10 | datamash sum 1
输出:
55
如果输入的数据是不规则的,空格和制表符在奇怪的地方,这可能会混淆数据集,然后使用-W开关:
<commands...> | datamash -W sum 1
...或者使用tr清除空白:
<commands...> | tr -d '[[:blank:]]' | datamash sum 1
如果输入足够大,输出将采用科学计数法。
seq 100000000 | datamash sum 1
输出:
5.00000005e+15
要将其转换为十进制,使用——format选项:
seq 100000000 | datamash --format '%.0f' sum 1
输出:
5000000050000000
不能避免提交这个,这是最通用的方法来解决这个问题,请查看:
jot 1000000 | sed '2,$s/$/+/;$s/$/p/' | dc
在这里可以找到,我是OP,答案来自观众:
最优雅的unix shell一行程序和任意精度的数字列表?
以下是它相对于awk、bc、perl、GNU的datamash及其朋友的特殊优势:
它使用任何Unix环境中常见的标准实用程序 它不依赖于缓冲,因此不会因为很长的输入而阻塞。 这意味着没有特定的精度限制-或整数大小的问题-你好AWK的朋友! 如果需要添加浮点数,则不需要不同的代码。 理论上它可以在最少的环境中不受阻碍地运行
一个简单的解决方案是编写一个程序来为你做这件事。这可能在python中很快就可以完成,类似于:
sum = 0
file = open("numbers.txt","R")
for line in file.readlines(): sum+=int(line)
file.close()
print sum
我还没有测试该代码,但它看起来是正确的。只需将numbers.txt更改为文件名,将代码保存到一个名为sum.py的文件中,并在控制台中键入"python sum.py"
更新的基准
所以我合成了随机分布的100mn个整数
之间的
0^0 - 1
and
8^8 - 1
代码生成器
mawk2 '
BEGIN {
__=_=((_+=_^=_<_)+(__=_*_*_))^(___=__)
srand()
___^=___
do {
print int(rand()*___)
} while(--_) }' | pvE9 > test_large_int_100mil_001.txt
out9: 795MiB 0:00:11 [69.0MiB/s] [69.0MiB/s] [ <=> ]
f='test_large_int_100mil_001.txt'
wc5 < "${f}"
rows = 100000000. | UTF8 chars = 833771780. | bytes = 833771780.
最后一位的奇/偶分布
Odd 49,992,332
Even 50,007,668
AWK -最快的,有很大的优势(可能C更快,我不知道)
in0: 795MiB 0:00:07 [ 103MiB/s] [ 103MiB/s] [============>] 100%
( pvE 0.1 in0 < "${f}" | mawk2 '{ _+=$__ } END { print _ }'; )
7.64s user 0.35s system 103% cpu 7.727 total
1 838885279378716
Perl -相当不错
in0: 795MiB 0:00:10 [77.6MiB/s] [77.6MiB/s] [==============>] 100%
( pvE 0.1 in0 < "${f}" | perl -lne '$x += $_; END { print $x; }'; )
10.16s user 0.37s system 102% cpu 10.268 total
1 838885279378716
Python3——稍微落后于Perl
in0: 795MiB 0:00:11 [71.5MiB/s] [71.5MiB/s] [===========>] 100%
( pvE 0.1 in0 < "${f}" | python3 -c ; )
11.00s user 0.43s system 102% cpu 11.140 total
1 838885279378716
RUBY -不错
in0: 795MiB 0:00:13 [61.0MiB/s] [61.0MiB/s] [===========>] 100%
( pvE 0.1 in0 < "${f}" | ruby -e 'puts ARGF.map(&:to_i).inject(&:+)'; )
15.30s user 0.70s system 101% cpu 15.757 total
1 838885279378716
JQ -慢
in0: 795MiB 0:00:25 [31.1MiB/s] [31.1MiB/s] [========>] 100%
( pvE 0.1 in0 < "${f}" | jq -s 'add'; )
36.95s user 1.09s system 100% cpu 37.840 total
1 838885279378716
DC
- ( had to kill it after no response in minutes)
一点awk就行了?
awk '{s+=$1} END {print s}' mydatafile
注意:如果要添加超过2^31(2147483647)的值,某些版本的awk会有一些奇怪的行为。查看评论了解更多背景信息。一个建议是使用printf而不是print:
awk '{s+=$1} END {printf "%.0f", s}' mydatafile