zmc
2023-08-08 e792e9a60d958b93aef96050644f369feb25d61b
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
U
¬ý°dÊRã @s4dZddlmZddlmZmZddlmZmZddl    m
Z
m    Z    m Z ddl m Z ddlZddlmZmZmZmZmZmZddlZddlZdd    lmZdd
lmZmZmZmZdd l m!Z!dd l"m#Z#m$Z$dd l%m&Z&ddl'm(Z(ddl)m*Z*m+Z+m,Z,m-Z-ddl.m/Z/ddl0m1Z1ddl2m3Z3ddl4m5Z5m6Z6ddl7m8Z8ddl9m:Z:ddl;m<m=Z>ddl?m@Z@ddlAmBZBerddlCmDZDddlEmFZFmGZGdd„ZHd|dddœd d!„ZId"d#„ZJd}dd&d'd(œd)d*„ZKd~dd+d&d,œd-d.„ZLdd/d0„ZMed€d2d3d4d5d6d'd7œd8d9„ƒZNedd2d3d4d:d6d;d7œd<d9„ƒZNddd$dddejOfd=d>d2dd3d4d?d6d@dAœ    dBd9„ZNed‚d2d3d3d5d+d6d'dCœdDdE„ƒZPedƒd2d3d3d:d+d6d;dCœdFdE„ƒZPdd$ddddejOfd2dd3d3d?d+d6d@dGœdHdE„ZPed„d2dId5d6d+d'dJœdKdL„ƒZQed…d2dId:d6d+d;dJœdMdL„ƒZQdd$ddddejOdfd2dd4d?d6d+d@dNœdOdL„ZQd†d=d>dRddSd?d+d>d=d?dTœ
dUdV„ZRd‡d=d>ddWœdXdY„ZSeSZTdˆd>ddZd[œd\d]„ZUGd^d_„d_e:ƒZVGd`dZ„dZe:eƒZWGdadb„dbƒZXGdcdd„ddeXƒZYd=dbdeœdfdg„ZZGdhdi„dieWƒZ[djdkdldmdndodldpœZ\dqdr„Z]dsdt„Z^Gdudv„dveVƒZ_Gdwdx„dxeWƒZ`d‰d=d+d>d=dyœdzd{„ZadS)Šz|
Collection of query wrappers / abstractions to both facilitate data
retrieval and to reduce dependency on DB-specific API.
é)Ú annotations)ÚABCÚabstractmethod)Ú    ExitStackÚcontextmanager)ÚdateÚdatetimeÚtime)ÚpartialN)Ú TYPE_CHECKINGÚAnyÚIteratorÚLiteralÚcastÚoverload)Úlib)ÚDateTimeErrorChoicesÚDtypeArgÚ DtypeBackendÚ
IndexLabel©Úimport_optional_dependency)ÚAbstractMethodErrorÚ DatabaseError)Úfind_stack_level)Úcheck_dtype_backend)Úis_datetime64tz_dtypeÚ is_dict_likeÚ
is_integerÚ is_list_like)ÚDatetimeTZDtype)Úisna)Ú
get_option)Ú    DataFrameÚSeries)ÚArrowExtensionArray)Ú PandasObject)Úconvert_object_array)Ú to_datetime)ÚTable)ÚSelectÚ
TextClausecCs2|dks|dks|dkrg}nt|dƒs.|g}|S)z3Process parse_dates argument for read_sql functionsTNFÚ__iter__)Úhasattr)Ú parse_dates©r/úDd:\z\workplace\vscode\pyvenv\venv\Lib\site-packages\pandas/io/sql.pyÚ_process_parse_dates_argumentRs
 
r1FÚboolzstr | dict[str, Any] | None)ÚutcÚformatcCsœt|tƒr.| dd¡pd}t|fd|i|—ŽS|dkrZt|jjtjƒsVt|jjtj    ƒrZd}|dkrrt|d||dSt
|jƒrˆt|ddSt|d||d    SdS)
NÚerrorsÚignoreÚs)ÚDÚdÚhÚmr7ÚmsÚusÚnsZcoerce)r5Úunitr3T©r3)r5r4r3) Ú
isinstanceÚdictÚpopr(Ú
issubclassÚdtypeÚtypeÚnpÚfloatingÚintegerr)Úcolr3r4Úerrorr/r/r0Ú_handle_date_column]s
ÿþ
 rLc    Csft|ƒ}| ¡D]P\}}t|jƒs*||krz ||}Wntk
rNd}YnXt||d||<q|S)zz
    Force non-datetime columns to be read as such.
    Supports both string formatted and integer timestamp columns.
    N©r4)r1ÚitemsrrEÚ    TypeErrorrL)Z
data_framer.Úcol_nameÚdf_colÚfmtr/r/r0Ú_parse_date_columnsys 
rSTÚnumpyúDtypeBackend | Literal['numpy']r#)Ú coerce_floatÚ dtype_backendÚreturncsft |¡}tt|jƒd||d}|dkrBtdƒ‰‡fdd„|Dƒ}|rXttt||ƒƒƒSt|dSdS)N)rErVrWZpyarrowcsg|]}tˆj|ddƒ‘qS)T)Z from_pandas)r%Úarray©Ú.0Zarr©Úpar/r0Ú
<listcomp>sz0_convert_arrays_to_dataframe.<locals>.<listcomp>)Úcolumns)    rZto_object_array_tuplesr'ÚlistÚTrr#rBÚzip)Údatar_rVrWÚcontentZarraysr/r\r0Ú_convert_arrays_to_dataframeŽs
ü
ÿreúDtypeArg | None)rVrErWcCs<t||||ƒ}|r| |¡}t||ƒ}|dk    r8| |¡}|S)z(Wrap result set of query in a DataFrame.N)reÚastyperSÚ    set_index)rcr_Ú    index_colrVr.rErWÚframer/r/r0Ú _wrap_result¦s
 
 
 
rkc
Csptjdttƒdtddd}|dk    r@t|t|jjfƒr@t    dƒ‚t
|dd    }|  ||¡W5QR£SQRXdS)
a¢
    Execute the given SQL query using the provided connection object.
 
    Parameters
    ----------
    sql : string
        SQL query to be executed.
    con : SQLAlchemy connection or sqlite3 connection
        If a DBAPI2 object, only sqlite3 is supported.
    params : list or tuple, optional, default: None
        List of parameters to pass to execute method.
 
    Returns
    -------
    Results Iterable
    zP`pandas.io.sql.execute` is deprecated and will be removed in the future version.©Ú
stacklevelÚ
sqlalchemyr6©r5Nz+pandas.io.sql.execute requires a connectionT)Úneed_transaction) ÚwarningsÚwarnÚ FutureWarningrrrAÚstrÚengineÚEnginerOÚpandasSQL_builderÚexecute)ÚsqlÚconÚparamsrnÚ
pandas_sqlr/r/r0rx½sü rx.ústr | list[str] | Nonez!list[str] | dict[str, str] | Noneúlist[str] | NoneÚNonezDtypeBackend | lib.NoDefault)rir.r_Ú    chunksizerWrXc        CsdS©Nr/©    Ú
table_namerzÚschemarirVr.r_r€rWr/r/r0Úread_sql_tableàs r…ÚintzIterator[DataFrame]c        CsdSrr/r‚r/r/r0r…ïs rtú
str | Noneú
int | NoneúDataFrame | Iterator[DataFrame])    rƒr„rirVr.r_r€rWrXc    
Cs„t|ƒ|tjkrd}t||dd8}    |     |¡s@td|›dƒ‚|    j|||||||d}
W5QRX|
dk    rn|
Std|›d|ƒ‚dS)a6
 
    Read SQL database table into a DataFrame.
 
    Given a table name and a SQLAlchemy connectable, returns a DataFrame.
    This function does not support DBAPI connections.
 
    Parameters
    ----------
    table_name : str
        Name of SQL table in database.
    con : SQLAlchemy connectable or str
        A database URI could be provided as str.
        SQLite DBAPI connection mode not supported.
    schema : str, default None
        Name of SQL schema in database to query (if database flavor
        supports this). Uses default schema if None (default).
    index_col : str or list of str, optional, default: None
        Column(s) to set as index(MultiIndex).
    coerce_float : bool, default True
        Attempts to convert values of non-string, non-numeric objects (like
        decimal.Decimal) to floating point. Can result in loss of Precision.
    parse_dates : list or dict, default None
        - List of column names to parse as dates.
        - Dict of ``{column_name: format string}`` where format string is
          strftime compatible in case of parsing string times or is one of
          (D, s, ns, ms, us) in case of parsing integer timestamps.
        - Dict of ``{column_name: arg dict}``, where the arg dict corresponds
          to the keyword arguments of :func:`pandas.to_datetime`
          Especially useful with databases without native Datetime support,
          such as SQLite.
    columns : list, default None
        List of column names to select from SQL table.
    chunksize : int, default None
        If specified, returns an iterator where `chunksize` is the number of
        rows to include in each chunk.
    dtype_backend : {"numpy_nullable", "pyarrow"}, defaults to NumPy backed DataFrames
        Which dtype_backend to use, e.g. whether a DataFrame should have NumPy
        arrays, nullable dtypes are used for all dtypes that have a nullable
        implementation when "numpy_nullable" is set, pyarrow is used for all
        dtypes if "pyarrow" is set.
 
        The dtype_backends are still experimential.
 
        .. versionadded:: 2.0
 
    Returns
    -------
    DataFrame or Iterator[DataFrame]
        A SQL table is returned as two-dimensional data structure with labeled
        axes.
 
    See Also
    --------
    read_sql_query : Read SQL query into a DataFrame.
    read_sql : Read SQL query or database table into a DataFrame.
 
    Notes
    -----
    Any datetime values with time zone information will be converted to UTC.
 
    Examples
    --------
    >>> pd.read_sql_table('table_name', 'postgres:///db_name')  # doctest:+SKIP
    rTT©r„rpzTable z
 not found©rirVr.r_r€rWN)rrÚ
no_defaultrwÚ    has_tableÚ
ValueErrorÚ
read_table) rƒrzr„rirVr.r_r€rWr|Útabler/r/r0r…þs$L
 
ù
)rir{r.r€rErWrXc        CsdSrr/©    ryrzrirVr{r.r€rErWr/r/r0Úread_sql_querybs r’c        CsdSrr/r‘r/r/r0r’qs )rirVr{r.r€rErWrXc    
CsPt|ƒ|tjkrd}t|ƒ(}    |    j||||||||dW5QR£SQRXdS)u»
    Read SQL query into a DataFrame.
 
    Returns a DataFrame corresponding to the result set of the query
    string. Optionally provide an `index_col` parameter to use one of the
    columns as the index, otherwise default integer index will be used.
 
    Parameters
    ----------
    sql : str SQL query or SQLAlchemy Selectable (select or text object)
        SQL query to be executed.
    con : SQLAlchemy connectable, str, or sqlite3 connection
        Using SQLAlchemy makes it possible to use any DB supported by that
        library. If a DBAPI2 object, only sqlite3 is supported.
    index_col : str or list of str, optional, default: None
        Column(s) to set as index(MultiIndex).
    coerce_float : bool, default True
        Attempts to convert values of non-string, non-numeric objects (like
        decimal.Decimal) to floating point. Useful for SQL result sets.
    params : list, tuple or dict, optional, default: None
        List of parameters to pass to execute method.  The syntax used
        to pass parameters is database driver dependent. Check your
        database driver documentation for which of the five syntax styles,
        described in PEP 249's paramstyle, is supported.
        Eg. for psycopg2, uses %(name)s so use params={'name' : 'value'}.
    parse_dates : list or dict, default: None
        - List of column names to parse as dates.
        - Dict of ``{column_name: format string}`` where format string is
          strftime compatible in case of parsing string times, or is one of
          (D, s, ns, ms, us) in case of parsing integer timestamps.
        - Dict of ``{column_name: arg dict}``, where the arg dict corresponds
          to the keyword arguments of :func:`pandas.to_datetime`
          Especially useful with databases without native Datetime support,
          such as SQLite.
    chunksize : int, default None
        If specified, return an iterator where `chunksize` is the number of
        rows to include in each chunk.
    dtype : Type name or dict of columns
        Data type for data or columns. E.g. np.float64 or
        {‘a’: np.float64, â€˜b’: np.int32, â€˜c’: â€˜Int64’}.
 
        .. versionadded:: 1.3.0
    dtype_backend : {"numpy_nullable", "pyarrow"}, defaults to NumPy backed DataFrames
        Which dtype_backend to use, e.g. whether a DataFrame should have NumPy
        arrays, nullable dtypes are used for all dtypes that have a nullable
        implementation when "numpy_nullable" is set, pyarrow is used for all
        dtypes if "pyarrow" is set.
 
        The dtype_backends are still experimential.
 
        .. versionadded:: 2.0
 
    Returns
    -------
    DataFrame or Iterator[DataFrame]
 
    See Also
    --------
    read_sql_table : Read SQL database table into a DataFrame.
    read_sql : Read SQL query or database table into a DataFrame.
 
    Notes
    -----
    Any datetime values with time zone information parsed via the `parse_dates`
    parameter will be converted to UTC.
    rT)rir{rVr.r€rErWN)rrrŒrwÚ
read_query)
ryrzrirVr{r.r€rErWr|r/r/r0r’€sN
 
øú    list[str])rir_r€rWrErXc
 
CsdSrr/©
ryrzrirVr{r.r_r€rWrEr/r/r0Úread_sqlßs r–c
 
CsdSrr/r•r/r/r0r–ïs )rirVr_r€rWrErXc
CsÔt|ƒ|tjkrd}t|ƒ¬}
t|
tƒrP|
j||||||||    dW5QR£Sz|
 |¡} Wntk
rvd} YnX| r |
j    |||||||dW5QR£S|
j||||||||    dW5QR£SW5QRXdS)u¤
    Read SQL query or database table into a DataFrame.
 
    This function is a convenience wrapper around ``read_sql_table`` and
    ``read_sql_query`` (for backward compatibility). It will delegate
    to the specific function depending on the provided input. A SQL query
    will be routed to ``read_sql_query``, while a database table name will
    be routed to ``read_sql_table``. Note that the delegated function might
    have more specific notes about their functionality not listed here.
 
    Parameters
    ----------
    sql : str or SQLAlchemy Selectable (select or text object)
        SQL query to be executed or a table name.
    con : SQLAlchemy connectable, str, or sqlite3 connection
        Using SQLAlchemy makes it possible to use any DB supported by that
        library. If a DBAPI2 object, only sqlite3 is supported. The user is responsible
        for engine disposal and connection closure for the SQLAlchemy connectable; str
        connections are closed automatically. See
        `here <https://docs.sqlalchemy.org/en/13/core/connections.html>`_.
    index_col : str or list of str, optional, default: None
        Column(s) to set as index(MultiIndex).
    coerce_float : bool, default True
        Attempts to convert values of non-string, non-numeric objects (like
        decimal.Decimal) to floating point, useful for SQL result sets.
    params : list, tuple or dict, optional, default: None
        List of parameters to pass to execute method.  The syntax used
        to pass parameters is database driver dependent. Check your
        database driver documentation for which of the five syntax styles,
        described in PEP 249's paramstyle, is supported.
        Eg. for psycopg2, uses %(name)s so use params={'name' : 'value'}.
    parse_dates : list or dict, default: None
        - List of column names to parse as dates.
        - Dict of ``{column_name: format string}`` where format string is
          strftime compatible in case of parsing string times, or is one of
          (D, s, ns, ms, us) in case of parsing integer timestamps.
        - Dict of ``{column_name: arg dict}``, where the arg dict corresponds
          to the keyword arguments of :func:`pandas.to_datetime`
          Especially useful with databases without native Datetime support,
          such as SQLite.
    columns : list, default: None
        List of column names to select from SQL table (only used when reading
        a table).
    chunksize : int, default None
        If specified, return an iterator where `chunksize` is the
        number of rows to include in each chunk.
    dtype_backend : {"numpy_nullable", "pyarrow"}, defaults to NumPy backed DataFrames
        Which dtype_backend to use, e.g. whether a DataFrame should have NumPy
        arrays, nullable dtypes are used for all dtypes that have a nullable
        implementation when "numpy_nullable" is set, pyarrow is used for all
        dtypes if "pyarrow" is set.
 
        The dtype_backends are still experimential.
 
        .. versionadded:: 2.0
    dtype : Type name or dict of columns
        Data type for data or columns. E.g. np.float64 or
        {‘a’: np.float64, â€˜b’: np.int32, â€˜c’: â€˜Int64’}.
        The argument is ignored if a table is passed instead of a query.
 
        .. versionadded:: 2.0.0
 
    Returns
    -------
    DataFrame or Iterator[DataFrame]
 
    See Also
    --------
    read_sql_table : Read SQL database table into a DataFrame.
    read_sql_query : Read SQL query into a DataFrame.
 
    Examples
    --------
    Read data from SQL via either a SQL query or a SQL tablename.
    When using a SQLite database only SQL queries are accepted,
    providing only the SQL tablename will result in an error.
 
    >>> from sqlite3 import connect
    >>> conn = connect(':memory:')
    >>> df = pd.DataFrame(data=[[0, '10/11/12'], [1, '12/11/10']],
    ...                   columns=['int_column', 'date_column'])
    >>> df.to_sql('test_data', conn)
    2
 
    >>> pd.read_sql('SELECT int_column, date_column FROM test_data', conn)
       int_column date_column
    0           0    10/11/12
    1           1    12/11/10
 
    >>> pd.read_sql('test_data', 'postgres:///db_name')  # doctest:+SKIP
 
    Apply date parsing to columns through the ``parse_dates`` argument
    The ``parse_dates`` argument calls ``pd.to_datetime`` on the provided columns.
    Custom argument values for applying ``pd.to_datetime`` on a column are specified
    via a dictionary format:
 
    >>> pd.read_sql('SELECT int_column, date_column FROM test_data',
    ...             conn,
    ...             parse_dates={"date_column": {"format": "%d/%m/%y"}})
       int_column date_column
    0           0  2012-11-10
    1           1  2010-11-12
    rT)rir{rVr.r€rWrEFr‹N)
rrrŒrwrAÚSQLiteDatabaser“rÚ    Exceptionr) ryrzrirVr{r.r_r€rWrEr|Z_is_table_namer/r/r0r–ÿsNt
 
 
ø 
ù
øÚfailÚautoú&Literal[('fail', 'replace', 'append')]r)
Únamer„Ú    if_existsÚindexÚ index_labelr€rEÚmethodrurXc KsŠ|dkrtd|›dƒ‚t|tƒr,| ¡}nt|tƒs>tdƒ‚t||dd4} | j||f|||||||    |
dœ| —ŽW5QR£SQRXdS)    a
    Write records stored in a DataFrame to a SQL database.
 
    Parameters
    ----------
    frame : DataFrame, Series
    name : str
        Name of SQL table.
    con : SQLAlchemy connectable(engine/connection) or database string URI
        or sqlite3 DBAPI2 connection
        Using SQLAlchemy makes it possible to use any DB supported by that
        library.
        If a DBAPI2 object, only sqlite3 is supported.
    schema : str, optional
        Name of SQL schema in database to write to (if database flavor
        supports this). If None, use default schema (default).
    if_exists : {'fail', 'replace', 'append'}, default 'fail'
        - fail: If table exists, do nothing.
        - replace: If table exists, drop it, recreate it, and insert data.
        - append: If table exists, insert data. Create if does not exist.
    index : bool, default True
        Write DataFrame index as a column.
    index_label : str or sequence, optional
        Column label for index column(s). If None is given (default) and
        `index` is True, then the index names are used.
        A sequence should be given if the DataFrame uses MultiIndex.
    chunksize : int, optional
        Specify the number of rows in each batch to be written at a time.
        By default, all rows will be written at once.
    dtype : dict or scalar, optional
        Specifying the datatype for columns. If a dictionary is used, the
        keys should be the column names and the values should be the
        SQLAlchemy types or strings for the sqlite3 fallback mode. If a
        scalar is provided, it will be applied to all columns.
    method : {None, 'multi', callable}, optional
        Controls the SQL insertion clause used:
 
        - None : Uses standard SQL ``INSERT`` clause (one per row).
        - ``'multi'``: Pass multiple values in a single ``INSERT`` clause.
        - callable with signature ``(pd_table, conn, keys, data_iter) -> int | None``.
 
        Details and a sample callable implementation can be found in the
        section :ref:`insert method <io.sql.method>`.
    engine : {'auto', 'sqlalchemy'}, default 'auto'
        SQL engine library to use. If 'auto', then the option
        ``io.sql.engine`` is used. The default ``io.sql.engine``
        behavior is 'sqlalchemy'
 
        .. versionadded:: 1.3.0
 
    **engine_kwargs
        Any additional kwargs are passed to the engine.
 
    Returns
    -------
    None or int
        Number of rows affected by to_sql. None is returned if the callable
        passed into ``method`` does not return an integer number of rows.
 
        .. versionadded:: 1.4.0
 
    Notes
    -----
    The returned rows affected is the sum of the ``rowcount`` attribute of ``sqlite3.Cursor``
    or SQLAlchemy connectable. The returned value may not reflect the exact number of written
    rows as stipulated in the
    `sqlite3 <https://docs.python.org/3/library/sqlite3.html#sqlite3.Cursor.rowcount>`__ or
    `SQLAlchemy <https://docs.sqlalchemy.org/en/14/core/connections.html#sqlalchemy.engine.BaseCursorResult.rowcount>`__
    )r™ÚreplaceÚappendú'ú' is not valid for if_existsz9'frame' argument should be either a Series or a DataFrameTrŠ)rržrŸr„r€rEr ruN)rŽrAr$Zto_framer#ÚNotImplementedErrorrwÚto_sql) rjrœrzr„rržrŸr€rEr ruÚ engine_kwargsr|r/r/r0r¦¡s0S
 
 
ÿþö õr¦©rƒr„rXc
Cs.t||d}| |¡W5QR£SQRXdS)a-
    Check if DataBase has named table.
 
    Parameters
    ----------
    table_name: string
        Name of SQL table.
    con: SQLAlchemy connectable(engine/connection) or sqlite3 DBAPI2 connection
        Using SQLAlchemy makes it possible to use any DB supported by that
        library.
        If a DBAPI2 object, only sqlite3 is supported.
    schema : string, default None
        Name of SQL schema in database to write to (if database flavor supports
        this). If None, use default schema (default).
 
    Returns
    -------
    boolean
    ©r„N)rwr)rƒrzr„r|r/r/r0rsrÚ    PandasSQL©r„rprXcCsŠddl}t||jƒs|dkr$t|ƒStddd}t|tƒrJ|dkrJtdƒ‚|dk    rpt|t|jjfƒrpt    |||ƒSt
j dt t ƒdt|ƒS)    zµ
    Convenience function to return the correct PandasSQL subclass based on the
    provided parameters.  Also creates a sqlalchemy connection and transaction
    if necessary.
    rNrnr6roz.Using URI string without sqlalchemy installed.z»pandas only supports SQLAlchemy connectable (engine/connection) or database string URI or sqlite3 DBAPI2 connection. Other DBAPI2 objects are not tested. Please consider using SQLAlchemy.rl)Úsqlite3rAÚ
Connectionr—rrtÚ ImportErrorruZ ConnectableÚ SQLDatabaserqrrÚ UserWarningr)rzr„rpr¬rnr/r/r0rw)s
  ûrwc@seZdZdZd>ddddd    d
d œd d „Zdd„Zddœdd„Zd
dœdd„Zd
dœdd„Zdddœdd„Z    dddœdd„Z
ddœdd „Z d?d!d"d!d#œd$d%„Z d@d'd"d(d)d*œd+d,„Z dAd'd(d)d-d.œd/d0„Zd1d2„Zd3d4„Zd5d6„ZdBd)d
d7œd8d9„Zd:d;„Zd<d=„ZdS)CÚSQLTablezî
    For mapping Pandas tables to SQL tables.
    Uses fact that table is reflected by SQLAlchemy to
    do better type conversions.
    Also holds various flags needed to avoid having to
    pass them between functions all the time.
    NTr™Úpandasrtúbool | str | list[str] | Noner›rfr)rœržrÚprefixrErXc Cs„||_||_||_||_| ||¡|_||_||_|    |_|
|_    |dk    rR| 
¡|_ n|j  |j|j¡|_ |j dkr€t d|›dƒ‚dS)NzCould not init table 'r£)rœÚpd_sqlr´rjÚ _index_nameržr„rÚkeysrEÚ_create_table_setuprÚ    get_tablerŽ) ÚselfrœZpandas_sql_enginerjržrr´rŸr„r·rEr/r/r0Ú__init__Us  
zSQLTable.__init__cCs|j |j|j¡Sr)rµrrœr„©rºr/r/r0ÚexistsvszSQLTable.exists©rXcCs$ddlm}t||jƒ |jj¡ƒS)Nr)Ú CreateTable)Úsqlalchemy.schemar¿rtrÚcompilerµrz)rºr¿r/r/r0Ú
sql_schemays zSQLTable.sql_schemac    Cs>|j |jj¡|_|j ¡|jj|jjdW5QRXdS)N©Úbind)rZ to_metadatarµÚmetaÚrun_transactionÚcreaterzr¼r/r/r0Ú_execute_create~s zSQLTable._execute_createcCsv| ¡rj|jdkr$td|j›dƒ‚|jdkrJ|j |j|j¡| ¡qr|jdkrVqrtd|j›dƒ‚n| ¡dS)Nr™zTable 'z' already exists.r¡r¢r£r¤)r½rrŽrœrµÚ
drop_tabler„rÈr¼r/r/r0rDŽs
 
 
 
zSQLTable.creater”r†)r·rXcs*‡fdd„|Dƒ}| |j ¡|¡}|jS)a<
        Execute SQL statement inserting data
 
        Parameters
        ----------
        conn : sqlalchemy.engine.Engine or sqlalchemy.engine.Connection
        keys : list of str
           Column names
        data_iter : generator of list
           Each item contains a list of values to be inserted
        csg|]}ttˆ|ƒƒ‘qSr/©rBrb©r[Úrow©r·r/r0r^žsz,SQLTable._execute_insert.<locals>.<listcomp>)rxrÚinsertÚrowcount)rºÚconnr·Ú    data_iterrcÚresultr/rÍr0Ú_execute_insert’s zSQLTable._execute_insertcs>ddlm}‡fdd„|Dƒ}||jƒ |¡}| |¡}|jS)a
        Alternative to _execute_insert for DBs support multivalue INSERT.
 
        Note: multi-value insert is usually faster for analytics DBs
        and tables containing a few columns
        but performance degrades quickly with increase of columns.
        r)rÎcsg|]}ttˆ|ƒƒ‘qSr/rÊrËrÍr/r0r^­sz2SQLTable._execute_insert_multi.<locals>.<listcomp>)rnrÎrÚvaluesrxrÏ)rºrÐr·rÑrÎrcÚstmtrÒr/rÍr0Ú_execute_insert_multi¢s
     
zSQLTable._execute_insert_multiz"tuple[list[str], list[np.ndarray]]c
CsL|jdk    rd|j ¡}|j|j_z|jddWqjtk
r`}ztd|›ƒ|‚W5d}~XYqjXn|j}ttt|j    ƒƒ}t
|ƒ}dg|}t |  ¡ƒD]ª\}\}}|j jdkr¼|j ¡}    nL|j jdkrü|j}
t|
tƒrê|
jt  d¡d}
|
 d¡ t¡}    n |j t¡}    t|    tjƒs"tt|    ƒƒ‚|jr:t|    ƒ} d|    | <|    ||<q˜||fS)    NT©Zinplacez!duplicate name in index/columns: ÚMr;zm8[ns]©rEÚi8)ržrjÚcopyÚnamesZ reset_indexrŽr`Úmaprtr_ÚlenÚ    enumeraterNrEÚkindÚdtZ to_pydatetimeZ_valuesrAr%Zto_numpyrGÚviewrgÚobjectZndarrayÚAssertionErrorrFZ _can_hold_nar!) rºÚtempÚerrÚ column_namesZncolsÚ    data_listÚiÚ_Zserr9ÚvalsÚmaskr/r/r0Ú insert_data²s4
 
 
$
 
 
zSQLTable.insert_datarˆr‡)r€r rXc     s&|dkr|j}n2|dkr |j}n"t|ƒr4t||ƒ}ntd|›ƒ‚| ¡\}}t|jƒ}|dkrddS|dkrr|}n|dkr‚tdƒ‚||d}d}|j     ¡€}    t
|ƒD]p}
|
|‰t |
d||ƒ‰ˆˆkrҐqt ‡‡fdd„|DƒŽ} ||    || ƒ} t | ƒr¦|dkr| }q¦|| 7}q¦W5QRX|S)NZmultizInvalid parameter `method`: rz%chunksize argument should be non-zeroéc3s|]}|ˆˆ…VqdSrr/rZ©Zend_iZstart_ir/r0Ú    <genexpr>üsz"SQLTable.insert.<locals>.<genexpr>)rÓrÖÚcallabler
rŽrírÞrjrµrÆÚrangeÚminrbr) rºr€r Z exec_insertr·rèZnrowsÚchunksÚtotal_insertedrÐréZ
chunk_iterZ num_insertedr/rïr0rÎÚs<  
 
zSQLTable.insertrTrr2rU)Ú
exit_stackr€rVrWc
    cs†d}|t| |¡}    |    s0|sxtjg||dVqxd}t|    |||ƒ|_|j||d|jdk    rn|jj|jdd|jVq
W5QRXdS)z,Return generator through chunked result set.F©r_rVT©r.rWNr×)Ú    fetchmanyr#Ú from_recordsrerjÚ_harmonize_columnsržrh)
rºrÒrör€r_rVr.rWÚ has_read_datarcr/r/r0Ú_query_iterators2 
ÿÿÿ
zSQLTable._query_iteratorr‰)rörVrWrXc    súddlm}|dk    rpt|ƒdkrp‡fdd„|Dƒ}ˆjdk    rfˆjddd…D]}    | dˆjj|    ¡qL||Ž}
n
|ˆjƒ}
ˆj |
¡} |      ¡} |dk    r®ˆj
| ||| |||dS|   ¡} t | | ||ƒˆ_ ˆj||dˆjdk    rðˆj jˆjdd    ˆj SdS)
Nr)Úselectcsg|]}ˆjj|‘qSr/)rÚc)r[Únr¼r/r0r^6sz!SQLTable.read.<locals>.<listcomp>éÿÿÿÿ)rVr.rWrøTr×)rnrþrÞržrÎrrÿrµrxr·rýÚfetchallrerjrûrh)rºrörVr.r_r€rWrþÚcolsÚidxZ
sql_selectrÒrçrcr/r¼r0Úread*sD     
 
 
 ù
ÿÿ
z SQLTable.readcCs¨|dkr‚|jjj}|dk    rHt|tƒs*|g}t|ƒ|krDtd|›ƒ‚|S|dkrpd|jjkrp|jjjdkrpdgSt     
|jjj ¡Sn"t|t ƒr’|gSt|tƒr |SdSdS)NTz@Length of 'index_label' should match number of levels, which is rîrž) rjržÚnlevelsrAr`rÞrŽr_rœÚcomZfill_missing_namesrÜrt)rºržrŸrr/r/r0r¶Ys.
 
 ÿÿ
þ ý
 
zSQLTable._index_namecspg}ˆjdk    rHtˆjƒD].\}}ˆˆjj |¡ƒ}| t|ƒ|df¡q|‡‡fdd„ttˆjjƒƒDƒ7}|S)NTcs6g|].}tˆjj|ƒˆˆjjdd…|fƒdf‘qS)NF)rtrjr_Ziloc)r[ré©Ú dtype_mapperrºr/r0r^€sÿz8SQLTable._get_column_names_and_types.<locals>.<listcomp>)    ržrßrjZ_get_level_valuesr¢rtròrÞr_)rºr    Úcolumn_names_and_typesréZ    idx_labelZidx_typer/rr0Ú_get_column_names_and_typesys
þz$SQLTable._get_column_names_and_typesc
s®ddlm‰m}m}ddlm}| |j¡}‡fdd„|Dƒ}|jdk    r€t    |jƒs\|jg}n|j}||d|j
diŽ}|  |¡|j pŽ|j jj }|ƒ}    ||j
|    f|žd|iŽS)    Nr)ÚColumnÚPrimaryKeyConstraintr)©ÚMetaDatacs g|]\}}}ˆ|||d‘qS))ržr/)r[rœÚtypÚis_index©r r/r0r^‘sÿz0SQLTable._create_table_setup.<locals>.<listcomp>rœZ_pkr„)rnr r r)rÀrr Ú_sqlalchemy_typer·rrœr¢r„rµrÅ)
rºr r)rr
r_r·Zpkcr„rÅr/rr0r¸‡s  
þ
 
 
 
zSQLTable._create_table_setup)rWrXc        Cs>t|ƒ}|jjD]&}|j}z|j|}||krnz ||}Wntk
rVd}YnXt||d|j|<Wq| |j¡}|t    ks’|t
ks’|t kr®|t k}t||d|j|<np|dkrÔ|t krÔ|j |dd|j|<nJ|dkrt|ƒ| ¡kr|t d¡ks
|tkr|j |dd|j|<Wqtk
r6YqXqdS)a
        Make the DataFrame's column types align with the SQL table
        column types.
        Need to work around limited NA value support. Floats are always
        fine, ints must always be floats if there are Null values.
        Booleans are hard because converting bool column with None replaces
        all Nones with false. Therefore only convert bool if there are no
        NA values.
        Datetimes should already be converted to np.datetime64 if supported,
        but here we also force conversion if required.
        NrMr@rTF)rÛÚint64)r1rr_rœrjrOrLÚ
_get_dtyperFrrr ÚfloatrgrÞÚcountrGrEr2ÚKeyError)    rºr.rWZsql_colrPrQrRÚcol_typer3r/r/r0rû¥s8
 
 ÿþýzSQLTable._harmonize_columnscCs¬|jpi}t|ƒr0tt|ƒ}|j|kr0||jStj|dd}ddlm}m    }m
}m }m }m }    m}
m} m} m} |dkrÊz|jjdk    r|ddWSWn2tk
rÄt|ddƒdk    rÀ|ddYSYnX|S|dkrètjd    ttƒd
|S|d kr|jd kr|    d dS|    ddSn”|dkrl|jj ¡dkr4| S|jj ¡dkrJ|
S|jj ¡dkrftdƒ‚n|Sn<|dkrz|S|dkrˆ|S|dkr–| S|dkr¨tdƒ‚| S)NT©Zskipnar)
Ú    TIMESTAMPÚ
BigIntegerÚBooleanÚDateÚDateTimeÚFloatÚIntegerÚ SmallIntegerÚTextÚTime)Ú
datetime64r)ÚtimezoneÚtzÚ timedelta64últhe 'timedelta' type is not supported, and will be written as integer values (ns frequency) to the database.rlrHÚfloat32é)Z    precisioné5rI)Zint8Zuint8Úint16)Zuint16Úint32Zuint64z1Unsigned 64 bit integer datatype is not supportedÚbooleanrr    ÚcomplexúComplex datatypes not supported)rErrrBrœrÚ infer_dtypeÚsqlalchemy.typesrrrrrr r!r"r#r$rár'ÚAttributeErrorÚgetattrrqrrr°rÚlowerrŽ)rºrJrErrrrrrr r!r"r#r$r/r/r0rÜsV
 
 
 
0  ü
 
 
 
 
 
 
 
zSQLTable._sqlalchemy_typecCsˆddlm}m}m}m}m}m}t||ƒr.tSt||ƒrBt     
d¡St||ƒrZ|j sVt St St||ƒrht St||ƒrvtSt||ƒr„tStS)Nr)rrrrr r!r)r3rrrrr r!rArrGrEr&rr rr2rã)rºZsqltyperrrrr r!r/r/r0r"s      
 
 
 
 
 
 
zSQLTable._get_dtype)NTr™r²NNNN)NN)TNrT)TNNNrT)NrT)Ú__name__Ú
__module__Ú __qualname__Ú__doc__r»r½rÂrÈrÇrÓrÖrírÎrýrr¶r r¸rûrrr/r/r/r0r±JsLõ!)ÿ2ø'ù/  ý7Fr±c
@sÆeZdZdZdd„Zddœdd„Zd+d d d dddddœdd„Zed,d d d dddddœdd„ƒZed-dd dd ddœdd„ƒZ    ed.dd œd!d"„ƒZ
ed/d dd d#œd$d%„ƒZ ed0d&d d'ddd(œd)d*„ƒZ dS)1rªz9
    Subclasses Should define read_query and to_sql.
    cCs|Srr/r¼r/r/r0Ú    __enter__EszPandasSQL.__enter__rr¾cGsdSrr/©rºÚargsr/r/r0Ú__exit__HszPandasSQL.__exit__NTrTrtr}r2r‡rˆrUr‰©rƒrirVr„r€rWrXc        Cst‚dSr)r¥)    rºrƒrirVr.r_r„r€rWr/r/r0rKs zPandasSQL.read_tablerf©ryrirVr€rErWrXc        CsdSrr/)    rºryrirVr.r{r€rErWr/r/r0r“Xs zPandasSQL.read_queryr™ršr›©rržrErurXc KsdSrr/) rºrjrœrržrŸr„r€rEr rur§r/r/r0r¦fszPandasSQL.to_sqlústr | Select | TextClause©rycCsdSrr/)rºryr{r/r/r0rxwszPandasSQL.execute©rœr„rXcCsdSrr/)rºrœr„r/r/r0r{szPandasSQL.has_tabler#r~©rjrƒr·rEr„cCsdSrr/)rºrjrƒr·rEr„r/r/r0Ú_create_sql_schemas    zPandasSQL._create_sql_schema)NTNNNNrT)NTNNNNrT)r™TNNNNNrš)N)N)NNN) r7r8r9r:r;r>rrr“r¦rxrrFr/r/r/r0rª@sN÷ ÷ õúc@s eZdZd    ddddœdd„ZdS)
Ú
BaseEngineTNr±r³rˆ©rržrXc    
Ks t|ƒ‚dS)z:
        Inserts data into already-prepared table
        N)r)
rºrrzrjrœržr„r€r r§r/r/r0Úinsert_recordsŒszBaseEngine.insert_records)TNNN)r7r8r9rIr/r/r/r0rG‹s
÷rGc@s.eZdZddœdd„Zd ddd    d
œd d „ZdS)ÚSQLAlchemyEnginerr¾cCstddddS)Nrnz'sqlalchemy is required for SQL support.)Úextrarr¼r/r/r0r»ŸsÿzSQLAlchemyEngine.__init__TNr±r³rˆrHc    
Ksnddlm}
z|j||dWS|
jk
rh} z,d} t| jƒ} t | | ¡rTtdƒ| ‚| ‚W5d} ~ XYnXdS)Nr)Úexc)r€r zg(\(1054, "Unknown column 'inf(e0)?' in 'field list'"\))(?#
            )|inf can not be used with MySQLzinf cannot be used with MySQL)    rnrLrÎZStatementErrorrtÚorigÚreÚsearchrŽ)rºrrzrjrœržr„r€r r§rLræÚmsgZerr_textr/r/r0rI¤s 
 
zSQLAlchemyEngine.insert_records)TNNN)r7r8r9r»rIr/r/r/r0rJžs  ÷rJ)rurXc Cs”|dkrtdƒ}|dkrztg}d}|D]D}z |ƒWStk
rh}z|dt|ƒ7}W5d}~XYq&Xq&td|›ƒ‚|dkrˆtƒStdƒ‚dS)    zreturn our implementationršz io.sql.engineÚz
 - Nz±Unable to find a usable engine; tried using: 'sqlalchemy'.
A suitable version of sqlalchemy is required for sql I/O support.
Trying to import the above resulted in these errors:rnz*engine must be one of 'auto', 'sqlalchemy')r"rJr®rtrŽ)ruZengine_classesZ
error_msgsZ engine_classrær/r/r0Ú
get_engine¿s  $ÿ
rRc    @sJeZdZdZdCddddœdd    „Zdd
œd d „Zed d„ƒZdDddœdd„ZdEddddddddœdd„Z    e
dFdddddd œd!d"„ƒZ dGdddddddd#œd$d%„Z e Z dHd'd(dd)d*œd+d,„Zdddd-œd.d/„ZdIdd'dddddd1œd2d3„Zed4d5„ƒZdJdddd-œd6d7„ZdKddd8d9œd:d;„ZdLdddd9œd<d=„ZdMd>dd?ddd@œdAdB„ZdS)Nr¯aa
    This class enables conversion between DataFrame and SQL databases
    using SQLAlchemy to handle DataBase abstraction.
 
    Parameters
    ----------
    con : SQLAlchemy Connectable or URI string.
        Connectable to connect with the database. Using SQLAlchemy makes it
        possible to use any DB supported by that library.
    schema : string, default None
        Name of SQL schema in database to write to (if database flavor
        supports this). If None, use default schema (default).
    need_transaction : bool, default False
        If True, SQLDatabase will create a transaction.
 
    NFr‡r2rr«cCsžddlm}ddlm}ddlm}tƒ|_t|t    ƒrL||ƒ}|j 
|j ¡t||ƒrf|j  |  ¡¡}|r‚| ¡s‚|j  | ¡¡||_||d|_d|_dS)Nr)Ú create_engine)rvrr©F)rnrSZsqlalchemy.enginervrÀrrrörArtÚcallbackZdisposeÚ enter_contextÚconnectÚin_transactionÚbeginrzrÅÚreturns_generator)rºrzr„rprSrvrr/r/r0r»ñs   
 
  zSQLDatabase.__init__r¾cGs|js|j ¡dSr)rYröÚcloser<r/r/r0r>szSQLDatabase.__exit__c    cs6|j ¡s*|j ¡|jVW5QRXn|jVdSr)rzrWrXr¼r/r/r0rÆ s
 zSQLDatabase.run_transactionrBrCcCs@|dkr gn|g}t|tƒr.|jj|f|žŽS|jj|f|žŽS)z,Simple passthrough to SQLAlchemy connectableN)rArtrzZexec_driver_sqlrx)rºryr{r=r/r/r0rxs
zSQLDatabase.executeTrTrtr}rˆrUr‰r?c    
CsJ|jj|j|gdt||||d}    |dk    r2d|_|    j|j|||||dS)ai
        Read SQL database table into a DataFrame.
 
        Parameters
        ----------
        table_name : str
            Name of SQL table in database.
        index_col : string, optional, default: None
            Column to set as index.
        coerce_float : bool, default True
            Attempts to convert values of non-string, non-numeric objects
            (like decimal.Decimal) to floating point. This can result in
            loss of precision.
        parse_dates : list or dict, default: None
            - List of column names to parse as dates.
            - Dict of ``{column_name: format string}`` where format string is
              strftime compatible in case of parsing string times, or is one of
              (D, s, ns, ms, us) in case of parsing integer timestamps.
            - Dict of ``{column_name: arg}``, where the arg corresponds
              to the keyword arguments of :func:`pandas.to_datetime`.
              Especially useful with databases without native Datetime support,
              such as SQLite.
        columns : list, default: None
            List of column names to select from SQL table.
        schema : string, default None
            Name of SQL schema in database to query (if database flavor
            supports this).  If specified, this overwrites the default
            schema of the SQL database object.
        chunksize : int, default None
            If specified, return an iterator where `chunksize` is the number
            of rows to include in each chunk.
        dtype_backend : {{"numpy_nullable", "pyarrow"}}, defaults to NumPy dtypes
            Which dtype_backend to use, e.g. whether a DataFrame should have NumPy
            arrays, nullable dtypes are used for all dtypes that have a nullable
            implementation when "numpy_nullable" is set, pyarrow is used for all
            dtypes if "pyarrow" is set.
 
            The dtype_backends are still experimential.
 
            .. versionadded:: 2.0
 
        Returns
        -------
        DataFrame
 
        See Also
        --------
        pandas.read_sql_table
        SQLDatabase.read_query
 
        )rÄÚonly)ržr„NT)rVr.r_r€rW)rÅÚreflectrzr±rYrrö)
rºrƒrirVr.r_r„r€rWrr/r/r0rs>úzSQLDatabase.read_tablerr†rf)rör€rVrErWc    
csbd}    |P| |¡}
|
s6|    sTtg||||||dVqTd}    t|
||||||dVq
W5QRXdS)ú+Return generator through chunked result setF©rirVr.rErWTN)rùrk) rÒrör€r_rirVr.rErWrürcr/r/r0rýfs2 
ù    ùzSQLDatabase._query_iteratorr@c     Csf| ||¡}    |     ¡}
|dk    r@d|_|j|    |j||
|||||d    S|     ¡} t| |
|||||d} | SdS)uù
        Read SQL query into a DataFrame.
 
        Parameters
        ----------
        sql : str
            SQL query to be executed.
        index_col : string, optional, default: None
            Column name to use as index for the returned DataFrame object.
        coerce_float : bool, default True
            Attempt to convert values of non-string, non-numeric objects (like
            decimal.Decimal) to floating point, useful for SQL result sets.
        params : list, tuple or dict, optional, default: None
            List of parameters to pass to execute method.  The syntax used
            to pass parameters is database driver dependent. Check your
            database driver documentation for which of the five syntax styles,
            described in PEP 249's paramstyle, is supported.
            Eg. for psycopg2, uses %(name)s so use params={'name' : 'value'}
        parse_dates : list or dict, default: None
            - List of column names to parse as dates.
            - Dict of ``{column_name: format string}`` where format string is
              strftime compatible in case of parsing string times, or is one of
              (D, s, ns, ms, us) in case of parsing integer timestamps.
            - Dict of ``{column_name: arg dict}``, where the arg dict
              corresponds to the keyword arguments of
              :func:`pandas.to_datetime` Especially useful with databases
              without native Datetime support, such as SQLite.
        chunksize : int, default None
            If specified, return an iterator where `chunksize` is the number
            of rows to include in each chunk.
        dtype : Type name or dict of columns
            Data type for data or columns. E.g. np.float64 or
            {‘a’: np.float64, â€˜b’: np.int32, â€˜c’: â€˜Int64’}
 
            .. versionadded:: 1.3.0
 
        Returns
        -------
        DataFrame
 
        See Also
        --------
        read_sql_table : Read SQL database table into a DataFrame.
        read_sql
 
        NTr^)rxr·rYrýrörrk) rºryrirVr.r{r€rErWrÒr_rcrjr/r/r0r“s49 ÷ ù    zSQLDatabase.read_queryr™r›r³r±)rržrErXc
sžˆrztˆƒs ‡fdd„|Dƒ‰n
ttˆƒ‰ddlm}ˆ ¡D]:\}    }
t|
tƒr\t|
|ƒr\q>t|
|ƒrhq>t    d|    ›dƒ‚q>t
|||||||ˆd} |   ¡| S)z_
        Prepares table in the database for data insertion. Creates it if needed, etc.
        csi|]
}|ˆ“qSr/r/©r[rPrÙr/r0Ú
<dictcomp>üsz*SQLDatabase.prep_table.<locals>.<dictcomp>r)Ú
TypeEnginez The type of z is not a SQLAlchemy type)rjržrrŸr„rE) rrrBr3rarNrArFrDrŽr±rÇ) rºrjrœrržrŸr„rErarJÚmy_typerr/rÙr0Ú
prep_tableçs. 
 
ø
zSQLDatabase.prep_tablerDcCsd| ¡s`| ¡s`ddlm}||jƒ}|j|p4|jjd}||kr`d|›d}tj    |t
t ƒddS)zv
        Checks table name for issues with case-sensitivity.
        Method is called after data is inserted.
        r©Úinspectr©zThe provided table name 'z—' is not found exactly as such in the database after writing the table, possibly due to case sensitivity issues. Consider using lower case table names.rlN) ÚisdigitÚislowerrnrerzZget_table_namesrÅr„rqrrr°r)rºrœr„Úsqlalchemy_inspectÚinspZ table_namesrPr/r/r0Úcheck_case_sensitives     
 
ÿýz SQLDatabase.check_case_sensitiverš)rœrržr„rErurXc  KsVt|
ƒ} |j|||||||d} | jf| |j||||||    dœ| —Ž}|j||d|S)a    
        Write records stored in a DataFrame to a SQL database.
 
        Parameters
        ----------
        frame : DataFrame
        name : string
            Name of SQL table.
        if_exists : {'fail', 'replace', 'append'}, default 'fail'
            - fail: If table exists, do nothing.
            - replace: If table exists, drop it, recreate it, and insert data.
            - append: If table exists, insert data. Create if does not exist.
        index : boolean, default True
            Write DataFrame index as a column.
        index_label : string or sequence, default None
            Column label for index column(s). If None is given (default) and
            `index` is True, then the index names are used.
            A sequence should be given if the DataFrame uses MultiIndex.
        schema : string, default None
            Name of SQL schema in database to write to (if database flavor
            supports this). If specified, this overwrites the default
            schema of the SQLDatabase object.
        chunksize : int, default None
            If not None, then rows will be written in batches of this size at a
            time.  If None, all rows will be written at once.
        dtype : single type or dict of column name to SQL type, default None
            Optional specifying the datatype for columns. The SQL type should
            be a SQLAlchemy type. If all columns are of the same type, one
            single value can be used.
        method : {None', 'multi', callable}, default None
            Controls the SQL insertion clause used:
 
            * None : Uses standard SQL ``INSERT`` clause (one per row).
            * 'multi': Pass multiple values in a single ``INSERT`` clause.
            * callable with signature ``(pd_table, conn, keys, data_iter)``.
 
            Details and a sample callable implementation can be found in the
            section :ref:`insert method <io.sql.method>`.
        engine : {'auto', 'sqlalchemy'}, default 'auto'
            SQL engine library to use. If 'auto', then the option
            ``io.sql.engine`` is used. The default ``io.sql.engine``
            behavior is 'sqlalchemy'
 
            .. versionadded:: 1.3.0
 
        **engine_kwargs
            Any additional kwargs are passed to the engine.
        )rjrœrržrŸr„rE)rrzrjrœržr„r€r )rœr„)rRrcrIrzrj)rºrjrœrržrŸr„r€rEr rur§Z
sql_enginerrõr/r/r0r¦4s0>ù
ø    ÷ zSQLDatabase.to_sqlcCs|jjSr)rÅÚtablesr¼r/r/r0rkszSQLDatabase.tablescCs*ddlm}||jƒ}| ||p&|jj¡S)Nrrd)rnrerzrrÅr„)rºrœr„rhrir/r/r0r‘s 
zSQLDatabase.has_tabler)r¨cCsTddlm}m}|p|jj}|||j|j|d}|jD]}t|j|ƒr6d|j_    q6|S)Nr)ÚNumericr))Z autoload_withr„F)
rnrlr)rÅr„rzr_rArFZ    asdecimal)rºrƒr„rlr)ZtblÚcolumnr/r/r0r¹—s 
 
zSQLDatabase.get_tablec    Csf|p
|jj}| ||¡rb|jj|j|g|d| ¡| ||¡j|jdW5QRX|j ¡dS)N)rÄr[r„rÃ)    rÅr„rr\rzrÆr¹ZdropÚclear©rºrƒr„r/r/r0rɤs   
 zSQLDatabase.drop_tabler#r~rEc    Cs"t|||d|||d}t| ¡ƒS©NF)rjržr·rEr„)r±rtr©rºrjrƒr·rEr„rr/r/r0rF¬sù    zSQLDatabase._create_sql_schema)NF)N)NTNNNNrT)NTNNrT)NTNNNNrT)r™TNNN)r™TNNNNNrš)N)N)N)NNN)r7r8r9r:r»r>rrÆrxrÚ staticmethodrýr“r–rcrjr¦Úpropertyrkrr¹rÉrFr/r/r/r0r¯ßsrÿ
 
÷K÷+÷Vø0!õY
  úr¯ZTEXTZREALZINTEGERrZDATEZTIME)ÚstringrHrIrrr    r/c
CsTzt|ƒ dd¡ d¡}Wn4tk
rN}ztd|›dƒ|‚W5d}~XYnX|S)Nzutf-8Ústrictz%Cannot convert identifier to UTF-8: 'r£)rtÚencodeÚdecodeÚ UnicodeErrorrŽ)rœÚunamerær/r/r0Ú_get_unicode_nameÎs
$rzcCsFt|ƒ}t|ƒstdƒ‚| d¡}|dkr2tdƒ‚d| dd¡dS)Nz$Empty table or column name specifiedúrz%SQLite identifier cannot contain NULsú"z"")rzrÞrŽÚfindr¡)rœryZ    nul_indexr/r/r0Ú_get_valid_sqlite_nameÖs
r~cs~eZdZdZddœ‡fdd„ Zddœdd„Zddœd    d
„Zd dd œd d„Zd dœdd„Zd dœdd„Z    dd„Z
dd„Z ‡Z S)Ú SQLiteTablezw
    Patch the SQLTable for fallback support.
    Instead of a table variable just use the Create Table statement.
    rr¾cs4ddl}ddœdd„}| t|¡tƒj||ŽdS)Nrrtr¾cSs*|jd›d|jd›d|jd›d|jd›S)NZ02dú:Ú.Z06d)ÚhourÚminuteÚsecondÚ microsecond)Útr/r/r0Ú _adapt_timeõsz)SQLiteTable.__init__.<locals>._adapt_time)r¬Zregister_adapterr    Úsuperr»)rºr=Úkwargsr¬r‡©Ú    __class__r/r0r»îs zSQLiteTable.__init__rtcCstd |j¡ƒS)Nz;
)rtÚjoinrr¼r/r/r0rÂüszSQLiteTable.sql_schemac    Cs0|j ¡}|jD]}| |¡qW5QRXdSr)rµrÆrrx)rºrÐrÕr/r/r0rÈÿs 
zSQLiteTable._execute_creater†)Únum_rowsrXc    s²ttt|jjƒƒ}d}t‰|jdk    rF|jddd…D]}| d|¡q4‡fdd„|Dƒ}d |¡}d |gt    |ƒ¡‰d ‡fdd„t
|ƒDƒ¡}dˆ|j ƒ›d    |›d
|›}|S) Nú?rrcsg|] }ˆ|ƒ‘qSr/r/)r[rm©Úescaper/r0r^ sz0SQLiteTable.insert_statement.<locals>.<listcomp>ú,csg|]}dˆ›d‘qS)ú(ú)r/)r[rê)Ú row_wildcardsr/r0r^sz INSERT INTO ú (z    ) VALUES ) r`rÝrtrjr_r~ržrÎrŒrÞròrœ)    rºrrÜÚwldrZbracketed_namesZ    col_namesÚ    wildcardsÚinsert_statementr/)rr”r0r˜s
 
ÿzSQLiteTable.insert_statementcCs"t|ƒ}| |jdd|¡|jS)Nrî©r)r`Z executemanyr˜rÏ)rºrÐr·rÑrèr/r/r0rÓszSQLiteTable._execute_insertcCs4t|ƒ}dd„|Dƒ}| |jt|ƒd|¡|jS)NcSsg|]}|D]}|‘q qSr/r/)r[rÌÚxr/r/r0r^sz5SQLiteTable._execute_insert_multi.<locals>.<listcomp>r™)r`rxr˜rÞrÏ)rºrÐr·rÑrèZflattened_datar/r/r0rÖsz!SQLiteTable._execute_insert_multic    s6| |j¡}t‰‡fdd„|Dƒ}|jdk    r‚t|jƒr‚t|jƒsJ|jg}n|j}d ‡fdd„|Dƒ¡}| d|j›d|›d¡|j    r”|j    d    }nd
}d |ˆ|jƒd d  |¡dg}dd„|Dƒ}t|ƒr2d |¡}d ‡fdd„|Dƒ¡}| dˆd|jd|ƒdˆ|jƒd|d¡|S)zá
        Return a list of SQL statements that creates a table reflecting the
        structure of a DataFrame.  The first entry will be a CREATE TABLE
        statement while the rest will be CREATE INDEX statements.
        cs"g|]\}}}ˆ|ƒd|‘qS)ú r/)r[ÚcnameÚctyperêrr/r0r^+sz3SQLiteTable._create_table_setup.<locals>.<listcomp>Nz, csg|] }ˆ|ƒ‘qSr/r/©r[rÿrr/r0r^4sz CONSTRAINT z_pk PRIMARY KEY (r“rrQz CREATE TABLE z (
z,
  z
)cSsg|]\}}}|r|‘qSr/r/)r[rœrêrr/r/r0r^Esrêr‘csg|] }ˆ|ƒ‘qSr/r/ržrr/r0r^Hsz CREATE INDEX Zix_zON r•)
r Ú_sql_type_namer~r·rÞrrŒr¢rœr„)    rºr
Zcreate_tbl_stmtsr·Z    cnames_brZ schema_nameZ create_stmtsZix_colsZcnamesr/rr0r¸"s` 
ÿ
 
ÿ ÿþýüûÿ    
 
ÿþýüûúÿ
zSQLiteTable._create_table_setupcCsž|jpi}t|ƒr0tt|ƒ}|j|kr0||jStj|dd}|dkr^tjdt    t
ƒdd}n,|dkrld}n|d    krzd
}n|d krŠt d ƒ‚|t kr–d
}t |S) NTrr(r)rlrIr%rÚemptyrtr0r1) rErrrBrœrr2rqrrr°rrŽÚ
_SQL_TYPES)rºrJrErr/r/r0rŸUs,
 
 
 
üzSQLiteTable._sql_type_name) r7r8r9r:r»rÂrÈr˜rÓrÖr¸rŸÚ __classcell__r/r/rŠr0rès3rc@sÜeZdZdZddœdd„Zedd„ƒZd/d    d
œd d „Zed0dddddœdd„ƒZ    d1ddddddœdd„Z
dd„Z d2dddddd œd!d"„Z d3dd#dd$œd%d&„Z d4dd#dd'œd(d)„Zd5dd#dd$œd*d+„Zd6ddd#d,œd-d.„ZdS)7r—zÉ
    Version of SQLDatabase to support SQLite connections (fallback without
    SQLAlchemy). This should only be used internally.
 
    Parameters
    ----------
    con : sqlite connection object
 
    rr¾cCs
||_dSr©rz)rºrzr/r/r0r»ƒszSQLiteDatabase.__init__ccsT|j ¡}z:z|V|j ¡Wn tk
r@|j ¡‚YnXW5| ¡XdSr)rzÚcursorrZÚcommitr˜Úrollback)rºÚcurr/r/r0rƆs
 
 zSQLiteDatabase.run_transactionNrBrCc CsÔt|tƒstdƒ‚|dkrgn|g}|j ¡}z|j|f|žŽ|WStk
rÎ}zlz|j ¡Wn>tk
r¢}z td|›d|›dƒ}||‚W5d}~XYnXtd|›d|›ƒ}||‚W5d}~XYnXdS)Nz/Query must be a string unless using sqlalchemy.zExecution failed on sql: Ú
z
unable to rollbackzExecution failed on sql 'z': )    rArtrOrzr¤rxr˜r¦r)rºryr{r=r§rLZ    inner_excÚexr/r/r0rx’s"
 
ÿzSQLiteDatabase.executeTrTr†r2rfrU)r€rVrErWc     cszd}| |¡}    t|    ƒtkr"t|    ƒ}    |    sX| ¡|svtjg||d}
|rP|
 |¡}
|
Vqvd}t|    ||||||dVqdS)r]Fr÷Tr^N)    rùrFÚtupler`rZr#rúrgrk) r¤r€r_rirVr.rErWrürcrÒr/r/r0rý¦s4 
 ÿ
ùzSQLiteDatabase._query_iteratorrˆr‰)rVr€rErWrXc    
Csn| ||¡}    dd„|    jDƒ}
|dk    r>|j|    ||
|||||dS| |    ¡} |     ¡t| |
|||||d} | SdS)NcSsg|] }|d‘qS)rr/)r[Zcol_descr/r/r0r^Ùsz-SQLiteDatabase.read_query.<locals>.<listcomp>r^)rxÚ descriptionrýÚ_fetchall_as_listrZrk) rºryrirVr.r{r€rErWr¤r_rcrjr/r/r0r“Ís2 ø
ù    zSQLiteDatabase.read_querycCs| ¡}t|tƒst|ƒ}|Sr)rrAr`)rºr§rÒr/r/r0r¬õs
z SQLiteDatabase._fetchall_as_listr™ršrtrAc      s„ˆrZtˆƒs ‡fdd„|Dƒ‰n
ttˆƒ‰ˆ ¡D]&\} } t| tƒs2t| ›d| ›dƒ‚q2t||||||ˆd}| ¡|     ||    ¡S)a@
        Write records stored in a DataFrame to a SQL database.
 
        Parameters
        ----------
        frame: DataFrame
        name: string
            Name of SQL table.
        if_exists: {'fail', 'replace', 'append'}, default 'fail'
            fail: If table exists, do nothing.
            replace: If table exists, drop it, recreate it, and insert data.
            append: If table exists, insert data. Create if it does not exist.
        index : bool, default True
            Write DataFrame index as a column
        index_label : string or sequence, default None
            Column label for index column(s). If None is given (default) and
            `index` is True, then the index names are used.
            A sequence should be given if the DataFrame uses MultiIndex.
        schema : string, default None
            Ignored parameter included for compatibility with SQLAlchemy
            version of ``to_sql``.
        chunksize : int, default None
            If not None, then rows will be written in batches of this
            size at a time. If None, all rows will be written at once.
        dtype : single type or dict of column name to SQL type, default None
            Optional specifying the datatype for columns. The SQL type should
            be a string. If all columns are of the same type, one single value
            can be used.
        method : {None, 'multi', callable}, default None
            Controls the SQL insertion clause used:
 
            * None : Uses standard SQL ``INSERT`` clause (one per row).
            * 'multi': Pass multiple values in a single ``INSERT`` clause.
            * callable with signature ``(pd_table, conn, keys, data_iter)``.
 
            Details and a sample callable implementation can be found in the
            section :ref:`insert method <io.sql.method>`.
        csi|]
}|ˆ“qSr/r/r_rÙr/r0r`7    sz)SQLiteDatabase.to_sql.<locals>.<dictcomp>r•z) not a string)rjržrrŸrE)
rrrBrNrArtrŽrrÇrÎ)rºrjrœrržrŸr„r€rEr rur§rJrbrr/rÙr0r¦ûs$4
 
ù    zSQLiteDatabase.to_sqlr‡rDcCs*d}d|›d}t| ||g¡ ¡ƒdkS)NrŽz;SELECT name FROM sqlite_master WHERE type='table' AND name=ú;r)rÞrxr)rºrœr„r–Úqueryr/r/r0rK    s zSQLiteDatabase.has_tabler¨cCsdSrr/ror/r/r0r¹Q    szSQLiteDatabase.get_tablecCsdt|ƒ›}| |¡dS)Nz DROP TABLE )r~rx)rºrœr„Zdrop_sqlr/r/r0rÉT    szSQLiteDatabase.drop_table)rƒrEr„c    Cs"t|||d|||d}t| ¡ƒSrp)rrtrÂrqr/r/r0rFX    sù    z!SQLiteDatabase._create_sql_schema)N)NTNNrT)NTNNNNrT)r™TNNNNNrš)N)N)N)NNN)r7r8r9r:r»rrÆrxrrrýr“r¬r¦rr¹rÉrFr/r/r/r0r—xsJ
 
ø)÷(
õPúr—)rœrEr„rXc
Cs6t|d"}|j|||||dW5QR£SQRXdS)a/
    Get the SQL db table schema for the given frame.
 
    Parameters
    ----------
    frame : DataFrame
    name : str
        name of SQL table
    keys : string or sequence, default: None
        columns to use a primary key
    con: an open SQL database connection object or a SQLAlchemy connectable
        Using SQLAlchemy makes it possible to use any DB supported by that
        library, default: None
        If a DBAPI2 object, only sqlite3 is supported.
    dtype : dict of column name to SQL type, default None
        Optional specifying the datatype for columns. The SQL type should
        be a SQLAlchemy type, or a string for sqlite3 fallback connection.
    schema: str, default: None
        Optional specifying the schema to be used in creating the table.
 
        .. versionadded:: 1.2.0
    r£)r·rEr„N)rwrF)rjrœr·rzrEr„r|r/r/r0Ú
get_schemal    s ÿr¯)FN)TrT)NTNNrT)N).......).......).......).......).......N).......N)Nr™TNNNNrš)N)NF)NNNN)br:Ú
__future__rÚabcrrÚ
contextlibrrrrr    Ú    functoolsr
rNÚtypingr r r rrrrqrTrGZ pandas._libsrZpandas._typingrrrrZpandas.compat._optionalrZ pandas.errorsrrZpandas.util._exceptionsrZpandas.util._validatorsrZpandas.core.dtypes.commonrrrrZpandas.core.dtypes.dtypesr Zpandas.core.dtypes.missingr!r²r"Zpandas.core.apir#r$Zpandas.core.arraysr%Zpandas.core.baser&Zpandas.core.commonÚcoreÚcommonrZ"pandas.core.internals.constructionr'Zpandas.core.tools.datetimesr(rnr)Zsqlalchemy.sql.expressionr*r+r1rLrSrerkrxr…rŒr’r–r¦rZ table_existsrwr±rªrGrJrRr¯r¡rzr~rr—r¯r/r/r/r0Ú<module>sT               
 ÿüù
#÷÷÷ d÷÷÷_ööö'õ"mý!yK! hù xú