Commit 58163842
Changed files (6)
tests
api_resources
tests/api_resources/beta/threads/test_runs.py
@@ -54,7 +54,7 @@ class TestRuns:
max_completion_tokens=256,
max_prompt_tokens=256,
metadata={"foo": "string"},
- model="gpt-4o",
+ model="string",
parallel_tool_calls=True,
reasoning_effort="low",
response_format="auto",
@@ -138,7 +138,7 @@ class TestRuns:
max_completion_tokens=256,
max_prompt_tokens=256,
metadata={"foo": "string"},
- model="gpt-4o",
+ model="string",
parallel_tool_calls=True,
reasoning_effort="low",
response_format="auto",
@@ -552,7 +552,7 @@ class TestAsyncRuns:
max_completion_tokens=256,
max_prompt_tokens=256,
metadata={"foo": "string"},
- model="gpt-4o",
+ model="string",
parallel_tool_calls=True,
reasoning_effort="low",
response_format="auto",
@@ -636,7 +636,7 @@ class TestAsyncRuns:
max_completion_tokens=256,
max_prompt_tokens=256,
metadata={"foo": "string"},
- model="gpt-4o",
+ model="string",
parallel_tool_calls=True,
reasoning_effort="low",
response_format="auto",
tests/api_resources/beta/test_threads.py
@@ -220,7 +220,7 @@ class TestThreads:
max_completion_tokens=256,
max_prompt_tokens=256,
metadata={"foo": "string"},
- model="gpt-4o",
+ model="string",
parallel_tool_calls=True,
response_format="auto",
stream=False,
@@ -309,7 +309,7 @@ class TestThreads:
max_completion_tokens=256,
max_prompt_tokens=256,
metadata={"foo": "string"},
- model="gpt-4o",
+ model="string",
parallel_tool_calls=True,
response_format="auto",
temperature=1,
@@ -584,7 +584,7 @@ class TestAsyncThreads:
max_completion_tokens=256,
max_prompt_tokens=256,
metadata={"foo": "string"},
- model="gpt-4o",
+ model="string",
parallel_tool_calls=True,
response_format="auto",
stream=False,
@@ -673,7 +673,7 @@ class TestAsyncThreads:
max_completion_tokens=256,
max_prompt_tokens=256,
metadata={"foo": "string"},
- model="gpt-4o",
+ model="string",
parallel_tool_calls=True,
response_format="auto",
temperature=1,
tests/api_resources/test_evals.py
@@ -28,148 +28,7 @@ class TestEvals:
def test_method_create(self, client: OpenAI) -> None:
eval = client.evals.create(
data_source_config={
- "item_schema": {
- "0": "bar",
- "1": "bar",
- "2": "bar",
- "3": "bar",
- "4": "bar",
- "5": "bar",
- "6": "bar",
- "7": "bar",
- "8": "bar",
- "9": "bar",
- "10": "bar",
- "11": "bar",
- "12": "bar",
- "13": "bar",
- "14": "bar",
- "15": "bar",
- "16": "bar",
- "17": "bar",
- "18": "bar",
- "19": "bar",
- "20": "bar",
- "21": "bar",
- "22": "bar",
- "23": "bar",
- "24": "bar",
- "25": "bar",
- "26": "bar",
- "27": "bar",
- "28": "bar",
- "29": "bar",
- "30": "bar",
- "31": "bar",
- "32": "bar",
- "33": "bar",
- "34": "bar",
- "35": "bar",
- "36": "bar",
- "37": "bar",
- "38": "bar",
- "39": "bar",
- "40": "bar",
- "41": "bar",
- "42": "bar",
- "43": "bar",
- "44": "bar",
- "45": "bar",
- "46": "bar",
- "47": "bar",
- "48": "bar",
- "49": "bar",
- "50": "bar",
- "51": "bar",
- "52": "bar",
- "53": "bar",
- "54": "bar",
- "55": "bar",
- "56": "bar",
- "57": "bar",
- "58": "bar",
- "59": "bar",
- "60": "bar",
- "61": "bar",
- "62": "bar",
- "63": "bar",
- "64": "bar",
- "65": "bar",
- "66": "bar",
- "67": "bar",
- "68": "bar",
- "69": "bar",
- "70": "bar",
- "71": "bar",
- "72": "bar",
- "73": "bar",
- "74": "bar",
- "75": "bar",
- "76": "bar",
- "77": "bar",
- "78": "bar",
- "79": "bar",
- "80": "bar",
- "81": "bar",
- "82": "bar",
- "83": "bar",
- "84": "bar",
- "85": "bar",
- "86": "bar",
- "87": "bar",
- "88": "bar",
- "89": "bar",
- "90": "bar",
- "91": "bar",
- "92": "bar",
- "93": "bar",
- "94": "bar",
- "95": "bar",
- "96": "bar",
- "97": "bar",
- "98": "bar",
- "99": "bar",
- "100": "bar",
- "101": "bar",
- "102": "bar",
- "103": "bar",
- "104": "bar",
- "105": "bar",
- "106": "bar",
- "107": "bar",
- "108": "bar",
- "109": "bar",
- "110": "bar",
- "111": "bar",
- "112": "bar",
- "113": "bar",
- "114": "bar",
- "115": "bar",
- "116": "bar",
- "117": "bar",
- "118": "bar",
- "119": "bar",
- "120": "bar",
- "121": "bar",
- "122": "bar",
- "123": "bar",
- "124": "bar",
- "125": "bar",
- "126": "bar",
- "127": "bar",
- "128": "bar",
- "129": "bar",
- "130": "bar",
- "131": "bar",
- "132": "bar",
- "133": "bar",
- "134": "bar",
- "135": "bar",
- "136": "bar",
- "137": "bar",
- "138": "bar",
- "139": "bar",
- },
+ "item_schema": {"foo": "bar"},
"type": "custom",
},
testing_criteria=[
@@ -194,148 +53,7 @@ class TestEvals:
def test_method_create_with_all_params(self, client: OpenAI) -> None:
eval = client.evals.create(
data_source_config={
- "item_schema": {
- "0": "bar",
- "1": "bar",
- "2": "bar",
- "3": "bar",
- "4": "bar",
- "5": "bar",
- "6": "bar",
- "7": "bar",
- "8": "bar",
- "9": "bar",
- "10": "bar",
- "11": "bar",
- "12": "bar",
- "13": "bar",
- "14": "bar",
- "15": "bar",
- "16": "bar",
- "17": "bar",
- "18": "bar",
- "19": "bar",
- "20": "bar",
- "21": "bar",
- "22": "bar",
- "23": "bar",
- "24": "bar",
- "25": "bar",
- "26": "bar",
- "27": "bar",
- "28": "bar",
- "29": "bar",
- "30": "bar",
- "31": "bar",
- "32": "bar",
- "33": "bar",
- "34": "bar",
- "35": "bar",
- "36": "bar",
- "37": "bar",
- "38": "bar",
- "39": "bar",
- "40": "bar",
- "41": "bar",
- "42": "bar",
- "43": "bar",
- "44": "bar",
- "45": "bar",
- "46": "bar",
- "47": "bar",
- "48": "bar",
- "49": "bar",
- "50": "bar",
- "51": "bar",
- "52": "bar",
- "53": "bar",
- "54": "bar",
- "55": "bar",
- "56": "bar",
- "57": "bar",
- "58": "bar",
- "59": "bar",
- "60": "bar",
- "61": "bar",
- "62": "bar",
- "63": "bar",
- "64": "bar",
- "65": "bar",
- "66": "bar",
- "67": "bar",
- "68": "bar",
- "69": "bar",
- "70": "bar",
- "71": "bar",
- "72": "bar",
- "73": "bar",
- "74": "bar",
- "75": "bar",
- "76": "bar",
- "77": "bar",
- "78": "bar",
- "79": "bar",
- "80": "bar",
- "81": "bar",
- "82": "bar",
- "83": "bar",
- "84": "bar",
- "85": "bar",
- "86": "bar",
- "87": "bar",
- "88": "bar",
- "89": "bar",
- "90": "bar",
- "91": "bar",
- "92": "bar",
- "93": "bar",
- "94": "bar",
- "95": "bar",
- "96": "bar",
- "97": "bar",
- "98": "bar",
- "99": "bar",
- "100": "bar",
- "101": "bar",
- "102": "bar",
- "103": "bar",
- "104": "bar",
- "105": "bar",
- "106": "bar",
- "107": "bar",
- "108": "bar",
- "109": "bar",
- "110": "bar",
- "111": "bar",
- "112": "bar",
- "113": "bar",
- "114": "bar",
- "115": "bar",
- "116": "bar",
- "117": "bar",
- "118": "bar",
- "119": "bar",
- "120": "bar",
- "121": "bar",
- "122": "bar",
- "123": "bar",
- "124": "bar",
- "125": "bar",
- "126": "bar",
- "127": "bar",
- "128": "bar",
- "129": "bar",
- "130": "bar",
- "131": "bar",
- "132": "bar",
- "133": "bar",
- "134": "bar",
- "135": "bar",
- "136": "bar",
- "137": "bar",
- "138": "bar",
- "139": "bar",
- },
+ "item_schema": {"foo": "bar"},
"type": "custom",
"include_sample_schema": True,
},
@@ -364,148 +82,7 @@ class TestEvals:
def test_raw_response_create(self, client: OpenAI) -> None:
response = client.evals.with_raw_response.create(
data_source_config={
- "item_schema": {
- "0": "bar",
- "1": "bar",
- "2": "bar",
- "3": "bar",
- "4": "bar",
- "5": "bar",
- "6": "bar",
- "7": "bar",
- "8": "bar",
- "9": "bar",
- "10": "bar",
- "11": "bar",
- "12": "bar",
- "13": "bar",
- "14": "bar",
- "15": "bar",
- "16": "bar",
- "17": "bar",
- "18": "bar",
- "19": "bar",
- "20": "bar",
- "21": "bar",
- "22": "bar",
- "23": "bar",
- "24": "bar",
- "25": "bar",
- "26": "bar",
- "27": "bar",
- "28": "bar",
- "29": "bar",
- "30": "bar",
- "31": "bar",
- "32": "bar",
- "33": "bar",
- "34": "bar",
- "35": "bar",
- "36": "bar",
- "37": "bar",
- "38": "bar",
- "39": "bar",
- "40": "bar",
- "41": "bar",
- "42": "bar",
- "43": "bar",
- "44": "bar",
- "45": "bar",
- "46": "bar",
- "47": "bar",
- "48": "bar",
- "49": "bar",
- "50": "bar",
- "51": "bar",
- "52": "bar",
- "53": "bar",
- "54": "bar",
- "55": "bar",
- "56": "bar",
- "57": "bar",
- "58": "bar",
- "59": "bar",
- "60": "bar",
- "61": "bar",
- "62": "bar",
- "63": "bar",
- "64": "bar",
- "65": "bar",
- "66": "bar",
- "67": "bar",
- "68": "bar",
- "69": "bar",
- "70": "bar",
- "71": "bar",
- "72": "bar",
- "73": "bar",
- "74": "bar",
- "75": "bar",
- "76": "bar",
- "77": "bar",
- "78": "bar",
- "79": "bar",
- "80": "bar",
- "81": "bar",
- "82": "bar",
- "83": "bar",
- "84": "bar",
- "85": "bar",
- "86": "bar",
- "87": "bar",
- "88": "bar",
- "89": "bar",
- "90": "bar",
- "91": "bar",
- "92": "bar",
- "93": "bar",
- "94": "bar",
- "95": "bar",
- "96": "bar",
- "97": "bar",
- "98": "bar",
- "99": "bar",
- "100": "bar",
- "101": "bar",
- "102": "bar",
- "103": "bar",
- "104": "bar",
- "105": "bar",
- "106": "bar",
- "107": "bar",
- "108": "bar",
- "109": "bar",
- "110": "bar",
- "111": "bar",
- "112": "bar",
- "113": "bar",
- "114": "bar",
- "115": "bar",
- "116": "bar",
- "117": "bar",
- "118": "bar",
- "119": "bar",
- "120": "bar",
- "121": "bar",
- "122": "bar",
- "123": "bar",
- "124": "bar",
- "125": "bar",
- "126": "bar",
- "127": "bar",
- "128": "bar",
- "129": "bar",
- "130": "bar",
- "131": "bar",
- "132": "bar",
- "133": "bar",
- "134": "bar",
- "135": "bar",
- "136": "bar",
- "137": "bar",
- "138": "bar",
- "139": "bar",
- },
+ "item_schema": {"foo": "bar"},
"type": "custom",
},
testing_criteria=[
@@ -534,148 +111,7 @@ class TestEvals:
def test_streaming_response_create(self, client: OpenAI) -> None:
with client.evals.with_streaming_response.create(
data_source_config={
- "item_schema": {
- "0": "bar",
- "1": "bar",
- "2": "bar",
- "3": "bar",
- "4": "bar",
- "5": "bar",
- "6": "bar",
- "7": "bar",
- "8": "bar",
- "9": "bar",
- "10": "bar",
- "11": "bar",
- "12": "bar",
- "13": "bar",
- "14": "bar",
- "15": "bar",
- "16": "bar",
- "17": "bar",
- "18": "bar",
- "19": "bar",
- "20": "bar",
- "21": "bar",
- "22": "bar",
- "23": "bar",
- "24": "bar",
- "25": "bar",
- "26": "bar",
- "27": "bar",
- "28": "bar",
- "29": "bar",
- "30": "bar",
- "31": "bar",
- "32": "bar",
- "33": "bar",
- "34": "bar",
- "35": "bar",
- "36": "bar",
- "37": "bar",
- "38": "bar",
- "39": "bar",
- "40": "bar",
- "41": "bar",
- "42": "bar",
- "43": "bar",
- "44": "bar",
- "45": "bar",
- "46": "bar",
- "47": "bar",
- "48": "bar",
- "49": "bar",
- "50": "bar",
- "51": "bar",
- "52": "bar",
- "53": "bar",
- "54": "bar",
- "55": "bar",
- "56": "bar",
- "57": "bar",
- "58": "bar",
- "59": "bar",
- "60": "bar",
- "61": "bar",
- "62": "bar",
- "63": "bar",
- "64": "bar",
- "65": "bar",
- "66": "bar",
- "67": "bar",
- "68": "bar",
- "69": "bar",
- "70": "bar",
- "71": "bar",
- "72": "bar",
- "73": "bar",
- "74": "bar",
- "75": "bar",
- "76": "bar",
- "77": "bar",
- "78": "bar",
- "79": "bar",
- "80": "bar",
- "81": "bar",
- "82": "bar",
- "83": "bar",
- "84": "bar",
- "85": "bar",
- "86": "bar",
- "87": "bar",
- "88": "bar",
- "89": "bar",
- "90": "bar",
- "91": "bar",
- "92": "bar",
- "93": "bar",
- "94": "bar",
- "95": "bar",
- "96": "bar",
- "97": "bar",
- "98": "bar",
- "99": "bar",
- "100": "bar",
- "101": "bar",
- "102": "bar",
- "103": "bar",
- "104": "bar",
- "105": "bar",
- "106": "bar",
- "107": "bar",
- "108": "bar",
- "109": "bar",
- "110": "bar",
- "111": "bar",
- "112": "bar",
- "113": "bar",
- "114": "bar",
- "115": "bar",
- "116": "bar",
- "117": "bar",
- "118": "bar",
- "119": "bar",
- "120": "bar",
- "121": "bar",
- "122": "bar",
- "123": "bar",
- "124": "bar",
- "125": "bar",
- "126": "bar",
- "127": "bar",
- "128": "bar",
- "129": "bar",
- "130": "bar",
- "131": "bar",
- "132": "bar",
- "133": "bar",
- "134": "bar",
- "135": "bar",
- "136": "bar",
- "137": "bar",
- "138": "bar",
- "139": "bar",
- },
+ "item_schema": {"foo": "bar"},
"type": "custom",
},
testing_criteria=[
@@ -868,148 +304,7 @@ class TestAsyncEvals:
async def test_method_create(self, async_client: AsyncOpenAI) -> None:
eval = await async_client.evals.create(
data_source_config={
- "item_schema": {
- "0": "bar",
- "1": "bar",
- "2": "bar",
- "3": "bar",
- "4": "bar",
- "5": "bar",
- "6": "bar",
- "7": "bar",
- "8": "bar",
- "9": "bar",
- "10": "bar",
- "11": "bar",
- "12": "bar",
- "13": "bar",
- "14": "bar",
- "15": "bar",
- "16": "bar",
- "17": "bar",
- "18": "bar",
- "19": "bar",
- "20": "bar",
- "21": "bar",
- "22": "bar",
- "23": "bar",
- "24": "bar",
- "25": "bar",
- "26": "bar",
- "27": "bar",
- "28": "bar",
- "29": "bar",
- "30": "bar",
- "31": "bar",
- "32": "bar",
- "33": "bar",
- "34": "bar",
- "35": "bar",
- "36": "bar",
- "37": "bar",
- "38": "bar",
- "39": "bar",
- "40": "bar",
- "41": "bar",
- "42": "bar",
- "43": "bar",
- "44": "bar",
- "45": "bar",
- "46": "bar",
- "47": "bar",
- "48": "bar",
- "49": "bar",
- "50": "bar",
- "51": "bar",
- "52": "bar",
- "53": "bar",
- "54": "bar",
- "55": "bar",
- "56": "bar",
- "57": "bar",
- "58": "bar",
- "59": "bar",
- "60": "bar",
- "61": "bar",
- "62": "bar",
- "63": "bar",
- "64": "bar",
- "65": "bar",
- "66": "bar",
- "67": "bar",
- "68": "bar",
- "69": "bar",
- "70": "bar",
- "71": "bar",
- "72": "bar",
- "73": "bar",
- "74": "bar",
- "75": "bar",
- "76": "bar",
- "77": "bar",
- "78": "bar",
- "79": "bar",
- "80": "bar",
- "81": "bar",
- "82": "bar",
- "83": "bar",
- "84": "bar",
- "85": "bar",
- "86": "bar",
- "87": "bar",
- "88": "bar",
- "89": "bar",
- "90": "bar",
- "91": "bar",
- "92": "bar",
- "93": "bar",
- "94": "bar",
- "95": "bar",
- "96": "bar",
- "97": "bar",
- "98": "bar",
- "99": "bar",
- "100": "bar",
- "101": "bar",
- "102": "bar",
- "103": "bar",
- "104": "bar",
- "105": "bar",
- "106": "bar",
- "107": "bar",
- "108": "bar",
- "109": "bar",
- "110": "bar",
- "111": "bar",
- "112": "bar",
- "113": "bar",
- "114": "bar",
- "115": "bar",
- "116": "bar",
- "117": "bar",
- "118": "bar",
- "119": "bar",
- "120": "bar",
- "121": "bar",
- "122": "bar",
- "123": "bar",
- "124": "bar",
- "125": "bar",
- "126": "bar",
- "127": "bar",
- "128": "bar",
- "129": "bar",
- "130": "bar",
- "131": "bar",
- "132": "bar",
- "133": "bar",
- "134": "bar",
- "135": "bar",
- "136": "bar",
- "137": "bar",
- "138": "bar",
- "139": "bar",
- },
+ "item_schema": {"foo": "bar"},
"type": "custom",
},
testing_criteria=[
@@ -1034,148 +329,7 @@ class TestAsyncEvals:
async def test_method_create_with_all_params(self, async_client: AsyncOpenAI) -> None:
eval = await async_client.evals.create(
data_source_config={
- "item_schema": {
- "0": "bar",
- "1": "bar",
- "2": "bar",
- "3": "bar",
- "4": "bar",
- "5": "bar",
- "6": "bar",
- "7": "bar",
- "8": "bar",
- "9": "bar",
- "10": "bar",
- "11": "bar",
- "12": "bar",
- "13": "bar",
- "14": "bar",
- "15": "bar",
- "16": "bar",
- "17": "bar",
- "18": "bar",
- "19": "bar",
- "20": "bar",
- "21": "bar",
- "22": "bar",
- "23": "bar",
- "24": "bar",
- "25": "bar",
- "26": "bar",
- "27": "bar",
- "28": "bar",
- "29": "bar",
- "30": "bar",
- "31": "bar",
- "32": "bar",
- "33": "bar",
- "34": "bar",
- "35": "bar",
- "36": "bar",
- "37": "bar",
- "38": "bar",
- "39": "bar",
- "40": "bar",
- "41": "bar",
- "42": "bar",
- "43": "bar",
- "44": "bar",
- "45": "bar",
- "46": "bar",
- "47": "bar",
- "48": "bar",
- "49": "bar",
- "50": "bar",
- "51": "bar",
- "52": "bar",
- "53": "bar",
- "54": "bar",
- "55": "bar",
- "56": "bar",
- "57": "bar",
- "58": "bar",
- "59": "bar",
- "60": "bar",
- "61": "bar",
- "62": "bar",
- "63": "bar",
- "64": "bar",
- "65": "bar",
- "66": "bar",
- "67": "bar",
- "68": "bar",
- "69": "bar",
- "70": "bar",
- "71": "bar",
- "72": "bar",
- "73": "bar",
- "74": "bar",
- "75": "bar",
- "76": "bar",
- "77": "bar",
- "78": "bar",
- "79": "bar",
- "80": "bar",
- "81": "bar",
- "82": "bar",
- "83": "bar",
- "84": "bar",
- "85": "bar",
- "86": "bar",
- "87": "bar",
- "88": "bar",
- "89": "bar",
- "90": "bar",
- "91": "bar",
- "92": "bar",
- "93": "bar",
- "94": "bar",
- "95": "bar",
- "96": "bar",
- "97": "bar",
- "98": "bar",
- "99": "bar",
- "100": "bar",
- "101": "bar",
- "102": "bar",
- "103": "bar",
- "104": "bar",
- "105": "bar",
- "106": "bar",
- "107": "bar",
- "108": "bar",
- "109": "bar",
- "110": "bar",
- "111": "bar",
- "112": "bar",
- "113": "bar",
- "114": "bar",
- "115": "bar",
- "116": "bar",
- "117": "bar",
- "118": "bar",
- "119": "bar",
- "120": "bar",
- "121": "bar",
- "122": "bar",
- "123": "bar",
- "124": "bar",
- "125": "bar",
- "126": "bar",
- "127": "bar",
- "128": "bar",
- "129": "bar",
- "130": "bar",
- "131": "bar",
- "132": "bar",
- "133": "bar",
- "134": "bar",
- "135": "bar",
- "136": "bar",
- "137": "bar",
- "138": "bar",
- "139": "bar",
- },
+ "item_schema": {"foo": "bar"},
"type": "custom",
"include_sample_schema": True,
},
@@ -1204,148 +358,7 @@ class TestAsyncEvals:
async def test_raw_response_create(self, async_client: AsyncOpenAI) -> None:
response = await async_client.evals.with_raw_response.create(
data_source_config={
- "item_schema": {
- "0": "bar",
- "1": "bar",
- "2": "bar",
- "3": "bar",
- "4": "bar",
- "5": "bar",
- "6": "bar",
- "7": "bar",
- "8": "bar",
- "9": "bar",
- "10": "bar",
- "11": "bar",
- "12": "bar",
- "13": "bar",
- "14": "bar",
- "15": "bar",
- "16": "bar",
- "17": "bar",
- "18": "bar",
- "19": "bar",
- "20": "bar",
- "21": "bar",
- "22": "bar",
- "23": "bar",
- "24": "bar",
- "25": "bar",
- "26": "bar",
- "27": "bar",
- "28": "bar",
- "29": "bar",
- "30": "bar",
- "31": "bar",
- "32": "bar",
- "33": "bar",
- "34": "bar",
- "35": "bar",
- "36": "bar",
- "37": "bar",
- "38": "bar",
- "39": "bar",
- "40": "bar",
- "41": "bar",
- "42": "bar",
- "43": "bar",
- "44": "bar",
- "45": "bar",
- "46": "bar",
- "47": "bar",
- "48": "bar",
- "49": "bar",
- "50": "bar",
- "51": "bar",
- "52": "bar",
- "53": "bar",
- "54": "bar",
- "55": "bar",
- "56": "bar",
- "57": "bar",
- "58": "bar",
- "59": "bar",
- "60": "bar",
- "61": "bar",
- "62": "bar",
- "63": "bar",
- "64": "bar",
- "65": "bar",
- "66": "bar",
- "67": "bar",
- "68": "bar",
- "69": "bar",
- "70": "bar",
- "71": "bar",
- "72": "bar",
- "73": "bar",
- "74": "bar",
- "75": "bar",
- "76": "bar",
- "77": "bar",
- "78": "bar",
- "79": "bar",
- "80": "bar",
- "81": "bar",
- "82": "bar",
- "83": "bar",
- "84": "bar",
- "85": "bar",
- "86": "bar",
- "87": "bar",
- "88": "bar",
- "89": "bar",
- "90": "bar",
- "91": "bar",
- "92": "bar",
- "93": "bar",
- "94": "bar",
- "95": "bar",
- "96": "bar",
- "97": "bar",
- "98": "bar",
- "99": "bar",
- "100": "bar",
- "101": "bar",
- "102": "bar",
- "103": "bar",
- "104": "bar",
- "105": "bar",
- "106": "bar",
- "107": "bar",
- "108": "bar",
- "109": "bar",
- "110": "bar",
- "111": "bar",
- "112": "bar",
- "113": "bar",
- "114": "bar",
- "115": "bar",
- "116": "bar",
- "117": "bar",
- "118": "bar",
- "119": "bar",
- "120": "bar",
- "121": "bar",
- "122": "bar",
- "123": "bar",
- "124": "bar",
- "125": "bar",
- "126": "bar",
- "127": "bar",
- "128": "bar",
- "129": "bar",
- "130": "bar",
- "131": "bar",
- "132": "bar",
- "133": "bar",
- "134": "bar",
- "135": "bar",
- "136": "bar",
- "137": "bar",
- "138": "bar",
- "139": "bar",
- },
+ "item_schema": {"foo": "bar"},
"type": "custom",
},
testing_criteria=[
@@ -1374,148 +387,7 @@ class TestAsyncEvals:
async def test_streaming_response_create(self, async_client: AsyncOpenAI) -> None:
async with async_client.evals.with_streaming_response.create(
data_source_config={
- "item_schema": {
- "0": "bar",
- "1": "bar",
- "2": "bar",
- "3": "bar",
- "4": "bar",
- "5": "bar",
- "6": "bar",
- "7": "bar",
- "8": "bar",
- "9": "bar",
- "10": "bar",
- "11": "bar",
- "12": "bar",
- "13": "bar",
- "14": "bar",
- "15": "bar",
- "16": "bar",
- "17": "bar",
- "18": "bar",
- "19": "bar",
- "20": "bar",
- "21": "bar",
- "22": "bar",
- "23": "bar",
- "24": "bar",
- "25": "bar",
- "26": "bar",
- "27": "bar",
- "28": "bar",
- "29": "bar",
- "30": "bar",
- "31": "bar",
- "32": "bar",
- "33": "bar",
- "34": "bar",
- "35": "bar",
- "36": "bar",
- "37": "bar",
- "38": "bar",
- "39": "bar",
- "40": "bar",
- "41": "bar",
- "42": "bar",
- "43": "bar",
- "44": "bar",
- "45": "bar",
- "46": "bar",
- "47": "bar",
- "48": "bar",
- "49": "bar",
- "50": "bar",
- "51": "bar",
- "52": "bar",
- "53": "bar",
- "54": "bar",
- "55": "bar",
- "56": "bar",
- "57": "bar",
- "58": "bar",
- "59": "bar",
- "60": "bar",
- "61": "bar",
- "62": "bar",
- "63": "bar",
- "64": "bar",
- "65": "bar",
- "66": "bar",
- "67": "bar",
- "68": "bar",
- "69": "bar",
- "70": "bar",
- "71": "bar",
- "72": "bar",
- "73": "bar",
- "74": "bar",
- "75": "bar",
- "76": "bar",
- "77": "bar",
- "78": "bar",
- "79": "bar",
- "80": "bar",
- "81": "bar",
- "82": "bar",
- "83": "bar",
- "84": "bar",
- "85": "bar",
- "86": "bar",
- "87": "bar",
- "88": "bar",
- "89": "bar",
- "90": "bar",
- "91": "bar",
- "92": "bar",
- "93": "bar",
- "94": "bar",
- "95": "bar",
- "96": "bar",
- "97": "bar",
- "98": "bar",
- "99": "bar",
- "100": "bar",
- "101": "bar",
- "102": "bar",
- "103": "bar",
- "104": "bar",
- "105": "bar",
- "106": "bar",
- "107": "bar",
- "108": "bar",
- "109": "bar",
- "110": "bar",
- "111": "bar",
- "112": "bar",
- "113": "bar",
- "114": "bar",
- "115": "bar",
- "116": "bar",
- "117": "bar",
- "118": "bar",
- "119": "bar",
- "120": "bar",
- "121": "bar",
- "122": "bar",
- "123": "bar",
- "124": "bar",
- "125": "bar",
- "126": "bar",
- "127": "bar",
- "128": "bar",
- "129": "bar",
- "130": "bar",
- "131": "bar",
- "132": "bar",
- "133": "bar",
- "134": "bar",
- "135": "bar",
- "136": "bar",
- "137": "bar",
- "138": "bar",
- "139": "bar",
- },
+ "item_schema": {"foo": "bar"},
"type": "custom",
},
testing_criteria=[
tests/api_resources/test_images.py
@@ -28,7 +28,7 @@ class TestImages:
def test_method_create_variation_with_all_params(self, client: OpenAI) -> None:
image = client.images.create_variation(
image=b"raw file contents",
- model="dall-e-2",
+ model="string",
n=1,
response_format="url",
size="1024x1024",
@@ -74,7 +74,7 @@ class TestImages:
image=b"raw file contents",
prompt="A cute baby sea otter wearing a beret",
mask=b"raw file contents",
- model="dall-e-2",
+ model="string",
n=1,
response_format="url",
size="1024x1024",
@@ -119,7 +119,7 @@ class TestImages:
def test_method_generate_with_all_params(self, client: OpenAI) -> None:
image = client.images.generate(
prompt="A cute baby sea otter",
- model="dall-e-3",
+ model="string",
n=1,
quality="standard",
response_format="url",
@@ -168,7 +168,7 @@ class TestAsyncImages:
async def test_method_create_variation_with_all_params(self, async_client: AsyncOpenAI) -> None:
image = await async_client.images.create_variation(
image=b"raw file contents",
- model="dall-e-2",
+ model="string",
n=1,
response_format="url",
size="1024x1024",
@@ -214,7 +214,7 @@ class TestAsyncImages:
image=b"raw file contents",
prompt="A cute baby sea otter wearing a beret",
mask=b"raw file contents",
- model="dall-e-2",
+ model="string",
n=1,
response_format="url",
size="1024x1024",
@@ -259,7 +259,7 @@ class TestAsyncImages:
async def test_method_generate_with_all_params(self, async_client: AsyncOpenAI) -> None:
image = await async_client.images.generate(
prompt="A cute baby sea otter",
- model="dall-e-3",
+ model="string",
n=1,
quality="standard",
response_format="url",
tests/api_resources/test_moderations.py
@@ -28,7 +28,7 @@ class TestModerations:
def test_method_create_with_all_params(self, client: OpenAI) -> None:
moderation = client.moderations.create(
input="I want to kill them.",
- model="omni-moderation-2024-09-26",
+ model="string",
)
assert_matches_type(ModerationCreateResponse, moderation, path=["response"])
@@ -71,7 +71,7 @@ class TestAsyncModerations:
async def test_method_create_with_all_params(self, async_client: AsyncOpenAI) -> None:
moderation = await async_client.moderations.create(
input="I want to kill them.",
- model="omni-moderation-2024-09-26",
+ model="string",
)
assert_matches_type(ModerationCreateResponse, moderation, path=["response"])
.stats.yml
@@ -1,4 +1,4 @@
configured_endpoints: 97
-openapi_spec_url: https://storage.googleapis.com/stainless-sdk-openapi-specs/openai%2Fopenai-472fe3036ea745365257fe870c0330917fb3153705c2826f49873cd631319b0a.yml
+openapi_spec_url: https://storage.googleapis.com/stainless-sdk-openapi-specs/openai%2Fopenai-32de3bc513663c5fac922c49be41c222b6ee8c0b841d8966bcdfa489d441daa3.yml
openapi_spec_hash: ea86343b5e9858a74e85da8ab2c532f6
-config_hash: ef19d36c307306f14f2e1cd5c834a151
+config_hash: d6c61213488683418adb860a9ee1501b