我一直在试图找出一个在Python中加载JSON对象的好方法。 我发送这个json数据:

{'http://example.org/about': {'http://purl.org/dc/terms/title': [{'type': 'literal', 'value': "Anna's Homepage"}]}}

到后端,它将作为一个字符串接收,然后我使用json.loads(数据)来解析它。

但每次我都得到相同的异常:

ValueError: Expecting property name enclosed in double quotes: line 1 column 2 (char 1)

我谷歌了一下,但似乎没有什么工作,除了这个解决方案json.loads(json.dumps(data)),这对我个人来说似乎不是那么有效,因为它接受任何类型的数据,甚至那些不是json格式的数据。

任何建议都将不胜感激。


当前回答

在手动编辑JSON时,我多次遇到过这个问题。 如果有人在没有注意到的情况下从文件中删除了一些内容,则会抛出相同的错误。

例如,如果您的JSON最后一个“}”丢失,它将抛出相同的错误。

所以如果你手动编辑你的文件,确保你的格式像JSON解码器所期望的那样,否则你会遇到同样的问题。

其他回答

我有这个错误试图规范化嵌套的JSON列在熊猫。正如@Reihan_amn所指出的,将所有单引号替换为双引号可能会影响实际内容。因此,当得到这个错误时,您应该只替换JSON语法中的“that are where”。你可以用下面的正则表达式来实现:

import re
import json

invalid_json = """{'http://example.org/about': {'http://purl.org/dc/terms/title': [{'type': 'literal', 'value': "Anna's Homepage"}]}}"""

valid_json = re.sub( "(?<={)\'|\'(?=})|(?<=\[)\'|\'(?=\])|\'(?=:)|(?<=: )\'|\'(?=,)|(?<=, )\'", "\"", invalid_json)

print(json.loads(valid_json))

如果唯一的问题是在原始格式错误的JSON文档中,双引号(")应该出现的地方出现了单引号('),那么这就足够了。但是,如果文档中的某个地方出现了双引号,而这些双引号也不是JSON语法的一部分,那么您仍然会得到一个错误。在这种情况下,我建议4步解决方案:

将所有作为JSON语法一部分的双引号替换为单引号(与上面的正则表达式类似,但交换了' and ')。 将所有(剩余的)双引号替换为文档中不存在的特殊字符,例如:' '。你可以用re.sub("\"", " ' ' ", x)。 使用上面给出的正则表达式,将JSON中应该是双引号的所有单引号替换为双引号。

你现在可以加载JSON文档,并通过pd.json_normalize(df["json_col"].apply(JSON .loads))将其读入Pandas DataFrame。

如果您愿意,您可以将所有' '(或您选择的特殊字符)替换回"。

因为JSON只允许用双引号括住字符串,你可以这样操作字符串:

s = s.replace("\'", "\"")

如果你的JSON包含转义单引号(\'),那么你应该使用更精确的以下代码:

import re
p = re.compile('(?<!\\\\)\'')
s = p.sub('\"', s)

这将把JSON字符串s中出现的所有单引号替换为双引号,在后一种情况下,不会替换转义的单引号。

你也可以使用不那么严格的js-beautify:

$ pip install jsbeautifier
$ js-beautify file.js

很简单,这个字符串不是有效的JSON。正如错误所示,JSON文档需要使用双引号。

您需要修复数据的来源。

我强烈建议使用json美化工具,如json美化工具,因为它帮助我修复了json文件中尾随逗号的错误,该错误产生了相同的错误。

import ast

inpt = {'http://example.org/about': {'http://purl.org/dc/terms/title':
                                     [{'type': 'literal', 'value': "Anna's Homepage"}]}}

json_data = ast.literal_eval(json.dumps(inpt))

print(json_data)

这样问题就解决了。