在C ++中有效读取非常大的文本文件

我有一个非常大的文本文件(45GB)。文本文件的每一行包含两个空格分隔的64位无符号整数,如下所示。

4624996948753406865 10214715013130414417

4305027007407867230 4569406367070518418

10817905656952544704 3697712211731468838 … …

我想读取文件并对数字进行一些操作。

回答:

void process_data(string str)

{

vector<string> arr;

boost::split(arr, str, boost::is_any_of(" \n"));

do_some_operation(arr);

}

int main()

{

unsigned long long int read_bytes = 45 * 1024 *1024;

const char* fname = "input.txt";

ifstream fin(fname, ios::in);

char* memblock;

while(!fin.eof())

{

memblock = new char[read_bytes];

fin.read(memblock, read_bytes);

string str(memblock);

process_data(str);

delete [] memblock;

}

return 0;

}

我是C ++的新手。当我运行这段代码时,我面临着这些问题。

  1. 因为以字节为单位读取文件,所以有时块的最后一行对应于原始文件中的未完成行(“ 4624996948753406865 10214”,而不是主文件的实际字符串“ 4624996948753406865 10214715013130414417”)。

  2. 这段代码运行非常非常慢。在具有6GB RAM的64位Intel Core i7 920系统中,运行一个块操作大约需要6秒。我可以使用任何优化技术来改善运行时间吗?

  3. 在boost split函数中是否必须包含“ \ n”以及空白字符?

我已经阅读了有关C ++中mmap文件的信息,但是我不确定这是否是正确的方法。如果是,请附加一些链接。

回答:

我将对其进行重新设计以充当流式传输,而不是在一个块上。

一个更简单的方法是:

std::ifstream ifs("input.txt");

std::vector<uint64_t> parsed(std::istream_iterator<uint64_t>(ifs), {});

如果您大致知道期望多少个值,那么预先使用std::vector::reserve它可以进一步加快速度。


另外,您可以使用内存映射文件并遍历字符序列。

我修改了上面的程序以将uint32_ts 解析为向量。

使用4.5GiB 的样本输入文件时,程序将在9秒 内运行:

sehe@desktop:/tmp$ make -B && sudo chrt -f 99 /usr/bin/time -f "%E elapsed, %c context switches" ./test smaller.txt

g++ -std=c++0x -Wall -pedantic -g -O2 -march=native test.cpp -o test -lboost_system -lboost_iostreams -ltcmalloc

parse success

trailing unparsed: '

'

data.size(): 402653184

0:08.96 elapsed, 6 context switches

当然,它至少分配402653184 * 4 字节= 1.5吉字节。因此,当您读取一个45

GB的文件时,您将需要大约15GiB的RAM来存储矢量(假设重新分配时没有碎片): 45GiB解析在45分钟内完成10分钟* :

make && sudo chrt -f 99 /usr/bin/time -f "%E elapsed, %c context switches" ./test 45gib_uint32s.txt 

make: Nothing to be done for `all'.

tcmalloc: large alloc 17570324480 bytes == 0x2cb6000 @ 0x7ffe6b81dd9c 0x7ffe6b83dae9 0x401320 0x7ffe6af4cec5 0x40176f (nil)

Parse success

Trailing unparsed: 1 characters

Data.size(): 4026531840

Time taken by parsing: 644.64s

10:45.96 elapsed, 42 context switches

相比之下,仅运行wc -l 45gib_uint32s.txt就花费了大约12分钟(尽管没有实时优先级调度)。wc

完整代码用于基准测试

#include <boost/spirit/include/qi.hpp>

#include <boost/iostreams/device/mapped_file.hpp>

#include <chrono>

namespace qi = boost::spirit::qi;

typedef std::vector<uint32_t> data_t;

using hrclock = std::chrono::high_resolution_clock;

int main(int argc, char** argv) {

if (argc<2) return 255;

data_t data;

data.reserve(4392580288); // for the 45 GiB file benchmark

// data.reserve(402653284); // for the 4.5 GiB file benchmark

boost::iostreams::mapped_file mmap(argv[1], boost::iostreams::mapped_file::readonly);

auto f = mmap.const_data();

auto l = f + mmap.size();

using namespace qi;

auto start_parse = hrclock::now();

bool ok = phrase_parse(f,l,int_parser<uint32_t, 10>() % eol, blank, data);

auto stop_time = hrclock::now();

if (ok)

std::cout << "Parse success\n";

else

std::cerr << "Parse failed at #" << std::distance(mmap.const_data(), f) << " around '" << std::string(f,f+50) << "'\n";

if (f!=l)

std::cerr << "Trailing unparsed: " << std::distance(f,l) << " characters\n";

std::cout << "Data.size(): " << data.size() << "\n";

std::cout << "Time taken by parsing: " << std::chrono::duration_cast<std::chrono::milliseconds>(stop_time-start_parse).count() / 1000.0 << "s\n";

}


产生od -t u4 /dev/urandom -A none -v -w4 | pv | dd bs=1M

count=$((9*1024/2)) iflag=fullblock > smaller.txt

显然,这与在Linux上的缓冲区缓存中缓存的文件有关–大文件没有此好处

以上是 在C ++中有效读取非常大的文本文件 的全部内容, 来源链接: utcz.com/qa/430033.html

回到顶部