从磁盘加载大型json文件时出现内存不足异常
我有一个1.2 GB的json文件,当反序列化时,应该给我一个包含15百万个对象的列表。
我要反序列化的计算机是具有16核心和32 GB Ram的Windows 2012服务器(64位)。
该应用程序已针对x64构建。
尽管有这种情况,当我尝试读取json文档并将其转换为我遇到内存不足异常的对象列表时。当我查看任务管理器时,我发现仅使用了5GB内存。
我尝试的代码如下。
一个。
string plays_json = File.ReadAllText("D:\\Hun\\enplays.json"); plays = JsonConvert.DeserializeObject<List<playdata>>(plays_json);
b。
string plays_json = ""; using (var reader = new StreamReader("D:\\Hun\\enplays.json"))
{
plays_json = reader.ReadToEnd();
plays = JsonConvert.DeserializeObject<List<playdata>>(plays_json);
}
C。
using (StreamReader sr = File.OpenText("D:\\Hun\\enplays.json")) {
StringBuilder sb = new StringBuilder();
sb.Append(sr.ReadToEnd());
plays_json = sb.ToString();
plays = JsonConvert.DeserializeObject<List<playdata>>(plays_json);
}
衷心感谢所有帮助
回答:
问题在于您正在将整个大文件读入内存,然后尝试一次将其全部反序列化为一个大列表。您应该使用StreamReader
来逐步处理文件。即使您在其中使用StreamReader,问题中的示例(b)也不会删除它,因为您仍在通过读取整个文件ReadToEnd()
。您应该改为执行以下操作:
using (StreamReader sr = new StreamReader("D:\\Hun\\enplays.json"))using (JsonTextReader reader = new JsonTextReader(sr))
{
var serializer = new JsonSerializer();
while (reader.Read())
{
if (reader.TokenType == JsonToken.StartObject)
{
// Deserialize each object from the stream individually and process it
var playdata = serializer.Deserialize<playdata>(reader);
ProcessPlayData(playdata);
}
}
}
该ProcessPlayData
方法应该处理单个playdata对象,然后理想地将结果写入文件或数据库,而不是内存中列表(否则,您可能会再次回到相同的情况)。如果必须将处理每个项目的结果存储到内存列表中,则可能需要考虑使用链接列表或类似的结构,该结构不会尝试在一个连续的块中分配内存,并且不需要重新分配和复制需要扩展时。
以上是 从磁盘加载大型json文件时出现内存不足异常 的全部内容, 来源链接: utcz.com/qa/420677.html