如何使用 Boto3 对 AWS Glue 中存在的 S3 存储桶的所有对象进行分页
awsboto3pythonserver side programmingprogramming
问题陈述:使用 Python 中的 boto3 库对账户中创建的 AWS Glue 数据目录中的 S3 存储桶的所有对象进行分页
解决此问题的方法/算法
步骤 1:导入 boto3 和 botocore 异常来处理异常。
步骤 2: max_items、page_size 和 starting_token 是此函数的可选参数,而 bucket_name 是必需参数。
max_items 表示要返回的记录总数。如果可用记录数 > max_items,则将在响应中提供 NextToken 以恢复分页。
page_size 表示每页的大小。
starting_token 有助于分页,它使用上一个响应中的最后一个键。
步骤 3:使用 boto3 lib 创建 AWS 会话。确保在默认配置文件中提到 region_name。如果没有提及,则在创建会话时明确传递 region_name。
步骤 4: 为 S3 创建 AWS 客户端。
步骤 5: 使用 list_objects 创建包含 S3 bucket 对象版本详细信息的 paginator 对象。
步骤 6: 调用 paginate 函数并传递 max_items、page_size 和 starting_token 作为 PaginationConfig 参数,同时传递 bucket_name 作为 Bucket 参数。
步骤 7: 它根据 max_size 返回记录数和page_size。
步骤 8:如果分页时出现问题,则处理一般异常。
示例代码
使用以下代码对用户帐户中创建的 S3 存储桶的所有对象进行分页 −
import boto3 from botocore.exceptions import ClientError def paginate_through_all_objects_s3_bucket(bucket_name, max_items=None:int,page_size=None:int, starting_token=None:string): session = boto3.session.Session() s3_client = session.client('s3') try: paginator = s3_client.get_paginator('list_objects') response = paginator.paginate(Bucket=bucket_name, PaginationConfig={ 'MaxItems':max_items, 'PageSize':page_size, 'StartingToken':starting_token} ) return response except ClientError as e: raise Exception("boto3 client error in paginate_through_all_objects_s3_bucket: " + e.__str__()) except Exception as e: raise Exception("Unexpected error in paginate_through_all_objects_s3_bucket: " + e.__str__()) #1st Run a = paginate_through_all_objects_s3_bucket('s3-test-bucket',2,5) print(*a) #2nd Run for items in a: next_token = items['Contents'][max_items-1]['Key'] b = paginate_through_all_objects_s3_bucket('s3-test-bucket',2,5,next_token) print(*b)
输出
#1st Run {'ResponseMetadata': {'RequestId': '5AE5VF7RK', 'HostId': **************', 'HTTPStatusCode': 200, 'HTTPHeaders': {'x-amz-id-2': **************', 'x-amz-request-id': '5AE5VF7RK', 'date': 'Sat, 03 Apr 2021 07:33:28 GMT', 'x-amz-bucket-region': 'us-east-1', 'content-type': 'application/xml', 'transfer-encoding': 'chunked', 'server': 'AmazonS3'}, 'RetryAttempts': 0}, 'IsTruncated': True, 'Marker': '', 'Contents': [{'Key': 'analytics-s3i/param.json', 'LastModified': datetime.datetime(2020, 10, 29, 19, 50, 55, tzinfo=tzutc()), 'ETag': '"e6f6b8e02"', 'Size': 1554, 'StorageClass': 'STANDARD', 'Owner': {'DisplayName': 'AWS.Development', 'ID': '92************************0'}}, {'Key': 'analytics-s3i/params.json', 'LastModified': datetime.datetime(2021, 3, 10, 20, 10, 47, tzinfo=tzutc()), 'ETag': '"22a4bf70c1ed2612"', 'Size': 1756, 'StorageClass': 'STANDARD', 'Owner': {'DisplayName': 'AWS.Development', 'ID': '92************************************************'}}], 'Name': 's3-test-bucket', 'Prefix': '', 'MaxKeys': 5, 'EncodingType': 'url', 'CommonPrefixes': None} #2nd Run {'ResponseMetadata': {'RequestId': '5AEAWX', 'HostId': 'Uc********************************', 'HTTPStatusCode': 200, 'HTTPHeaders': {'x-amz-id-2': *****************************', 'x-amz-request-id': '5AEAWX', 'date': 'Sat, 03 Apr 2021 07:33:28 GMT', 'x-amz-bucket-region': 'us-east-1', 'content-type': 'application/xml', 'transfer-encoding': 'chunked', 'server': 'AmazonS3'}, 'RetryAttempts': 0}, 'IsTruncated': True, 'Marker': 'analytics-s3i/params.json', 'Contents': [{'Key': 'analytics-s3i/template.json', 'LastModified': datetime.datetime(2020, 10, 29, 19, 50, 55, tzinfo=tzutc()), 'ETag': '"3af411f"', 'Size': 21334, 'StorageClass': 'STANDARD', 'Owner': {'DisplayName': 'AWS.Development', 'ID': '92************************'}}, {'Key': 'analytics-s3i2/param.json', 'LastModified': datetime.datetime(2020, 11, 20, 17, 32, 45, tzinfo=tzutc()), 'ETag': '"04c29cf86888f99"', 'Size': 1695, 'StorageClass': 'STANDARD', 'Owner': {'DisplayName': 'AWS.Development', 'ID': '92************************'}}], 'Name': 's3-test-bucket', 'Prefix': '', 'MaxKeys': 5, 'EncodingType': 'url', 'CommonPrefixes': None}