如何使用 Boto3 对 AWS Glue 中存在的 S3 存储桶的分段上传对象进行分页
问题陈述:使用 Python 中的 boto3 库对账户中创建的 AWS Glue 数据目录中的 S3 存储桶的分段上传对象进行分页
解决此问题的方法/算法
步骤 1:导入 boto3 和 botocore 异常来处理异常。
步骤 2:prefix_name、max_items、page_size 和 starting_token 是此函数的可选参数,而 bucket_name 是必需的参数。
Prefix_name 是用户想要分页的特定子文件夹
max_items 表示要返回的记录总数。如果可用记录数 > max_items,则响应中将提供 NextToken 以恢复分页。
page_size 表示每页的大小。
starting_token 有助于分页,它使用来自上一个响应的标记。
步骤 3:使用 boto3 lib 创建 AWS 会话。确保在默认配置文件中提到 region_name。如果没有提及,则在创建会话时明确传递 region_name。
步骤 4: 为 S3 创建 AWS 客户端。
步骤 5: 使用 list_multipart_uploads 创建包含 S3 存储桶对象版本详细信息的 paginator 对象。
步骤 6: 调用 paginate 函数并传递 max_items、page_size 和 starting_token 作为 PaginationConfig 参数,同时传递 bucket_name 作为 Bucket 参数,传递 prefix_name 作为 Prefix。
步骤 7: 它根据 max_size 返回记录数, page_size。
步骤 8:如果分页时出现问题,处理一般异常。
示例代码
使用以下代码对用户帐户中创建的 S3 存储桶的分段上传进行分页 −
import boto3 from botocore.exceptions import ClientError def paginate_through_multipart_upload_s3_bucket(bucket_name, prefix_name=None, max_items=None:int,page_size=None:int, starting_token=None:string): session = boto3.session.Session() s3_client = session.client('s3') try: paginator = s3_client.get_paginator('list_objects') response = paginator.paginate(Bucket=bucket_name, Prefix=prefix_name, PaginationConfig={ 'MaxItems':max_items, 'PageSize':page_size, 'StartingToken':starting_token} ) return response except ClientError as e: raise Exception("boto3 client error in paginate_through_multipart_upload_s3_bucket: " + e.__str__()) except Exception as e: raise Exception("Unexpected error in paginate_through_multipart_upload_s3_bucket: " + e.__str__()) a = paginate_through_multipart_upload_s3_bucket('s3-test-bucket', 'testfolder',2,5) print(*a)
输出
{'ResponseMetadata': {'RequestId': 'YA9CGTAAX', 'HostId': '8dqJW******************', 'HTTPStatusCode': 200, 'HTTPHeaders': {'x-amz-id-2': '8dqJW*********************, 'x-amz-request-id': 'YA9CGTAAX', 'date': 'Sat, 03 Apr 2021 08:16:05 GMT', 'content-type': 'application/xml', 'transfer-encoding': 'chunked', 'server': 'AmazonS3'}, 'RetryAttempts': 0}, 'Bucket': 's3-test-bucket', 'KeyMarker': '', 'UploadIdMarker': '', 'NextKeyMarker': '', 'Prefix': 'testfolder', 'NextUploadIdMarker': '', 'MaxUploads': 5, 'IsTruncated': False, 'Uploads': [ {'UploadId': 'YADF**************LK25', 'Key': 'testfolder/testfilemultiupload.csv', 'Intiated':datetime(2021,1,2), 'StorageClass': 'STANDARD' 'Owner':{ 'DisplayName': 'AmazonServicesJob' 'Id': '********************' } ], 'CommonPrefixes': None}