ValueError:使用tf.data.Dataset.from_tensor_slices

如何解决ValueError:使用tf.data.Dataset.from_tensor_slices

这个问题已经在SO中发布了很多次,但是我仍然无法弄清楚我的代码有什么问题,特别是因为它来自medium中的一个教程,并且作者编写了代码可在Google colab

上使用

我看到其他用户在使用错误的变量类型#56304986时遇到了问题(这不是我的情况,因为我的模型输入是tokenizer的输出),甚至看到了我正在尝试使用的函数(tf.data.Dataset.from_tensor_slices)被建议作为解决方案#56304986

行产生错误是:

# train dataset
ds_train_encoded = encode_examples(ds_train).shuffle(10000).batch(batch_size)

其中方法encode_examples定义为(我在assert方法中插入了encode_examples行,以确保我的问题不是长度不匹配):

def encode_examples(ds,limit=-1):
    # prepare list,so that we can build up final TensorFlow dataset from slices.
    input_ids_list = []
    token_type_ids_list = []
    attention_mask_list = []
    label_list = []
    if (limit > 0):
        ds = ds.take(limit)

    for review,label in tfds.as_numpy(ds):

            bert_input = convert_example_to_feature(review.decode())

            ii = bert_input['input_ids']
            tti = bert_input['token_type_ids']
            am = bert_input['attention_mask']

            assert len(ii) == len(tti) == len(am),"unmatching lengths!"

            input_ids_list.append(ii)
            token_type_ids_list.append(tti)
            attention_mask_list.append(am)
            label_list.append([label])

    return tf.data.Dataset.from_tensor_slices((input_ids_list,attention_mask_list,token_type_ids_list,label_list)).map(map_example_to_dict)

数据是这样加载的(这里我更改了数据集以仅获取10%的训练数据,以便加快调试速度)

(ds_train,ds_test),ds_info = tfds.load('imdb_reviews',split = ['train[:10%]','test[10%:15%]'],as_supervised=True,with_info=True)

另外两个调用(convert_example_to_featuremap_example_to_dict)和令牌生成器如下:

tokenizer = BertTokenizer.from_pretrained('bert-base-uncased',do_lower_case=True)
def convert_example_to_feature(text):
    # combine step for tokenization,WordPiece vector mapping,adding special tokens as well as truncating reviews longer than the max length
    return tokenizer.encode_plus(text,add_special_tokens = True,# add [CLS],[SEP]
                                 #max_length = max_length,# max length of the text that can go to BERT
                                 pad_to_max_length = True,# add [PAD] tokens
                                 return_attention_mask = True,)# add attention mask to not focus on pad tokens

def map_example_to_dict(input_ids,attention_masks,token_type_ids,label):
    return ({"input_ids": input_ids,"token_type_ids": token_type_ids,"attention_mask": attention_masks,},label)

我怀疑该错误可能与TensorFlow的不同版本有关(我使用的是2.3),但由于内存原因,我无法在google.colab笔记本中运行摘要。

有人知道我的代码在哪里出问题吗?感谢您的时间和关注。

解决方法

事实证明我是通过注释该行引起麻烦的

#max_length = max_length,# max length of the text that can go to BERT

我假设它将截断模型的最大大小,或者将最长的输入作为最大大小。它什么都不做,然后即使我具有相同数量的条目,这些条目的大小也会变化,从而生成非矩形张量。

我删除了#,并使用512作为max_lenght。无论如何,这是BERT所能承受的最大费用。 (请参阅transformer's tokenizer class作为参考)

,

另一个可能的原因是应该在分词器中显式启用截断。参数为truncation = True

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


使用本地python环境可以成功执行 import pandas as pd import matplotlib.pyplot as plt # 设置字体 plt.rcParams['font.sans-serif'] = ['SimHei'] # 能正确显示负号 p
错误1:Request method ‘DELETE‘ not supported 错误还原:controller层有一个接口,访问该接口时报错:Request method ‘DELETE‘ not supported 错误原因:没有接收到前端传入的参数,修改为如下 参考 错误2:cannot r
错误1:启动docker镜像时报错:Error response from daemon: driver failed programming external connectivity on endpoint quirky_allen 解决方法:重启docker -> systemctl r
错误1:private field ‘xxx‘ is never assigned 按Altʾnter快捷键,选择第2项 参考:https://blog.csdn.net/shi_hong_fei_hei/article/details/88814070 错误2:启动时报错,不能找到主启动类 #
报错如下,通过源不能下载,最后警告pip需升级版本 Requirement already satisfied: pip in c:\users\ychen\appdata\local\programs\python\python310\lib\site-packages (22.0.4) Coll
错误1:maven打包报错 错误还原:使用maven打包项目时报错如下 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resources (default-resources)
错误1:服务调用时报错 服务消费者模块assess通过openFeign调用服务提供者模块hires 如下为服务提供者模块hires的控制层接口 @RestController @RequestMapping("/hires") public class FeignControl
错误1:运行项目后报如下错误 解决方案 报错2:Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.1:compile (default-compile) on project sb 解决方案:在pom.
参考 错误原因 过滤器或拦截器在生效时,redisTemplate还没有注入 解决方案:在注入容器时就生效 @Component //项目运行时就注入Spring容器 public class RedisBean { @Resource private RedisTemplate<String
使用vite构建项目报错 C:\Users\ychen\work>npm init @vitejs/app @vitejs/create-app is deprecated, use npm init vite instead C:\Users\ychen\AppData\Local\npm-
参考1 参考2 解决方案 # 点击安装源 协议选择 http:// 路径填写 mirrors.aliyun.com/centos/8.3.2011/BaseOS/x86_64/os URL类型 软件库URL 其他路径 # 版本 7 mirrors.aliyun.com/centos/7/os/x86
报错1 [root@slave1 data_mocker]# kafka-console-consumer.sh --bootstrap-server slave1:9092 --topic topic_db [2023-12-19 18:31:12,770] WARN [Consumer clie
错误1 # 重写数据 hive (edu)> insert overwrite table dwd_trade_cart_add_inc > select data.id, > data.user_id, > data.course_id, > date_format(
错误1 hive (edu)> insert into huanhuan values(1,'haoge'); Query ID = root_20240110071417_fe1517ad-3607-41f4-bdcf-d00b98ac443e Total jobs = 1
报错1:执行到如下就不执行了,没有显示Successfully registered new MBean. [root@slave1 bin]# /usr/local/software/flume-1.9.0/bin/flume-ng agent -n a1 -c /usr/local/softwa
虚拟及没有启动任何服务器查看jps会显示jps,如果没有显示任何东西 [root@slave2 ~]# jps 9647 Jps 解决方案 # 进入/tmp查看 [root@slave1 dfs]# cd /tmp [root@slave1 tmp]# ll 总用量 48 drwxr-xr-x. 2
报错1 hive> show databases; OK Failed with exception java.io.IOException:java.lang.RuntimeException: Error in configuring object Time taken: 0.474 se
报错1 [root@localhost ~]# vim -bash: vim: 未找到命令 安装vim yum -y install vim* # 查看是否安装成功 [root@hadoop01 hadoop]# rpm -qa |grep vim vim-X11-7.4.629-8.el7_9.x
修改hadoop配置 vi /usr/local/software/hadoop-2.9.2/etc/hadoop/yarn-site.xml # 添加如下 <configuration> <property> <name>yarn.nodemanager.res