66# Check https://github.com/PyCampES/python-docs-es/blob/3.8/TRANSLATORS to
77# get the list of volunteers
88#
9- #, fuzzy
109msgid ""
1110msgstr ""
1211"Project-Id-Version : Python 3.8\n "
1312"Report-Msgid-Bugs-To : \n "
1413"POT-Creation-Date : 2020-05-05 12:54+0200\n "
15- "PO-Revision-Date : YEAR-MO-DA HO:MI+ZONE\n "
16- "Last-Translator : FULL NAME <EMAIL@ADDRESS>\n "
14+ "PO-Revision-Date : 2020-07-25 21:23+0200\n "
1715"Language-Team : python-doc-es\n "
1816"MIME-Version : 1.0\n "
19- "Content-Type : text/plain; charset=utf -8\n "
17+ "Content-Type : text/plain; charset=UTF -8\n "
2018"Content-Transfer-Encoding : 8bit\n "
2119"Generated-By : Babel 2.8.0\n "
20+ "Plural-Forms : nplurals=2; plural=(n != 1);\n "
21+ "Last-Translator : Ignasi Fosch <natx@y10k.ws>\n "
22+ "Language : es\n "
23+ "X-Generator : Poedit 2.3.1\n "
2224
2325#: ../Doc/library/tokenize.rst:2
2426msgid ":mod:`tokenize` --- Tokenizer for Python source"
25- msgstr ""
27+ msgstr ":mod:`tokenize` --- Conversor a tokens para código Python "
2628
2729#: ../Doc/library/tokenize.rst:10
2830msgid "**Source code:** :source:`Lib/tokenize.py`"
29- msgstr ""
31+ msgstr "**Código fuente:** :source:`Lib/tokenize.py` "
3032
3133#: ../Doc/library/tokenize.rst:14
3234msgid ""
@@ -35,6 +37,10 @@ msgid ""
3537"tokens as well, making it useful for implementing \" pretty-printers\" , "
3638"including colorizers for on-screen displays."
3739msgstr ""
40+ "El módulo :mod:`tokenize` provee un analizador léxico para código fuente "
41+ "Python, implementado en Python. Este analizador también retorna comentarios "
42+ "como tokens, siendo útil para implementar *\" pretty-printers\" *, como "
43+ "*colorizers* para impresiones en pantalla."
3844
3945#: ../Doc/library/tokenize.rst:19
4046msgid ""
@@ -44,14 +50,19 @@ msgid ""
4450"checking the ``exact_type`` property on the :term:`named tuple` returned "
4551"from :func:`tokenize.tokenize`."
4652msgstr ""
53+ "Para simplificar el manejo de flujos de tokens, todos los tokens :ref:"
54+ "`operator <operators>` y :ref:`delimiter <delimiters>` y :data:`Ellipsis` se "
55+ "retorna usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
56+ "determinar usando la propiedad ``exact_type`` en la :term:`named tuple` "
57+ "retornada por :func:`tokenize.tokenize`."
4758
4859#: ../Doc/library/tokenize.rst:26
4960msgid "Tokenizing Input"
50- msgstr ""
61+ msgstr "Convirtiendo la entrada en *tokens* "
5162
5263#: ../Doc/library/tokenize.rst:28
5364msgid "The primary entry point is a :term:`generator`:"
54- msgstr ""
65+ msgstr "El punto de entrada principal es un :term:`generador`: "
5566
5667#: ../Doc/library/tokenize.rst:32
5768msgid ""
@@ -60,6 +71,10 @@ msgid ""
6071"IOBase.readline` method of file objects. Each call to the function should "
6172"return one line of input as bytes."
6273msgstr ""
74+ "El generador :func:`.tokenize` requiere un argumento, *readline*, que debe "
75+ "ser un objeto invocable que provee la misma interfaz que el método :meth:`io."
76+ "IOBase.readline` de los objetos archivos. Cada llamada a la función debe "
77+ "retornar una línea de entrada como bytes."
6378
6479#: ../Doc/library/tokenize.rst:37
6580msgid ""
@@ -71,6 +86,14 @@ msgid ""
7186"is the *physical* line. The 5 tuple is returned as a :term:`named tuple` "
7287"with the field names: ``type string start end line``."
7388msgstr ""
89+ "El generador produce una tupla con los siguientes 5 miembros: El tipo de "
90+ "token, la cadena del token, una tupla ``(srow, scol)`` de enteros "
91+ "especificando la fila y columna donde el token empieza en el código, una "
92+ "``(erow, ecol)`` de enteros especificando la fila y columna donde el token "
93+ "acaba en el código, y la línea en la que se encontró el token. La línea "
94+ "pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
95+ "retorna como una :term:`named tuple` con los campos: ``type string start end "
96+ "line``."
7497
7598#: ../Doc/library/tokenize.rst:46
7699msgid ""
@@ -79,57 +102,77 @@ msgid ""
79102"tokens. For all other token types ``exact_type`` equals the named tuple "
80103"``type`` field."
81104msgstr ""
105+ "La :term:`named tuple` retorna tiene una propiedad adicional llamada "
106+ "``exact_type`` que contiene el tipo de operador exacto para tokens :data:"
107+ "`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el valor "
108+ "del campo ``type`` de la tupla con su respectivo nombre."
82109
83110#: ../Doc/library/tokenize.rst:51
84111msgid "Added support for named tuples."
85- msgstr ""
112+ msgstr "Añadido soporte para tuplas con nombre. "
86113
87114#: ../Doc/library/tokenize.rst:54
88115msgid "Added support for ``exact_type``."
89- msgstr ""
116+ msgstr "Añadido soporte para ``exact_type``. "
90117
91118#: ../Doc/library/tokenize.rst:57
92119msgid ""
93120":func:`.tokenize` determines the source encoding of the file by looking for "
94121"a UTF-8 BOM or encoding cookie, according to :pep:`263`."
95122msgstr ""
123+ ":func:`tokenize` determina la codificación del fichero buscando una marca "
124+ "BOM UTF-8 o una *cookie* de codificación, de acuerdo con :pep:`263`."
96125
97126#: ../Doc/library/tokenize.rst:62
98127msgid "Tokenize a source reading unicode strings instead of bytes."
99128msgstr ""
129+ "Convertir a tokens una fuente leyendo cadenas unicode en lugar de bytes."
100130
101131#: ../Doc/library/tokenize.rst:64
102132msgid ""
103133"Like :func:`.tokenize`, the *readline* argument is a callable returning a "
104134"single line of input. However, :func:`generate_tokens` expects *readline* to "
105135"return a str object rather than bytes."
106136msgstr ""
137+ "Como :func:`.tokenize`, el argumento *readline* es un invocable que retorna "
138+ "una sola línea de entrada. Sin embargo, :func:`generate_tokens` espera que "
139+ "*readline* devuelva un objeto *str* en lugar de *bytes*."
107140
108141#: ../Doc/library/tokenize.rst:68
109142msgid ""
110143"The result is an iterator yielding named tuples, exactly like :func:`."
111144"tokenize`. It does not yield an :data:`~token.ENCODING` token."
112145msgstr ""
146+ "El resultado es un iterador que produce tuplas con nombre, exactamente como :"
147+ "func:`.tokenize`. No produce un token :data:`~token.ENCODING`."
113148
114149#: ../Doc/library/tokenize.rst:71
115150msgid ""
116151"All constants from the :mod:`token` module are also exported from :mod:"
117152"`tokenize`."
118153msgstr ""
154+ "Todas las constantes del módulo :mod:`token` se exportan también desde :mod:"
155+ "`tokenize`."
119156
120157#: ../Doc/library/tokenize.rst:74
121158msgid ""
122159"Another function is provided to reverse the tokenization process. This is "
123160"useful for creating tools that tokenize a script, modify the token stream, "
124161"and write back the modified script."
125162msgstr ""
163+ "Otra función se encarga de invertir el proceso de conversión. Esto es útil "
164+ "para crear herramientas que convierten a tokens un script, modificar el "
165+ "flujo de token, y escribir el script modificado."
126166
127167#: ../Doc/library/tokenize.rst:81
128168msgid ""
129169"Converts tokens back into Python source code. The *iterable* must return "
130170"sequences with at least two elements, the token type and the token string. "
131171"Any additional sequence elements are ignored."
132172msgstr ""
173+ "Convierte los *tokens* de vuelta en código fuente Python. El *iterable* debe "
174+ "retornar secuencias con al menos dos elementos, el tipo de *token* y la "
175+ "cadena del *token*. Cualquier otro elemento de la secuencia es ignorado."
133176
134177#: ../Doc/library/tokenize.rst:85
135178msgid ""
@@ -139,32 +182,50 @@ msgid ""
139182"token type and token string as the spacing between tokens (column positions) "
140183"may change."
141184msgstr ""
185+ "El *script* reconstruido se retorna como una cadena simple. El resultado "
186+ "está garantizado de que se convierte en *tokens* de vuelta a la misma "
187+ "entrada, de modo que la conversión no tiene pérdida y que las conversiones "
188+ "de ida y de vuelta están aseguradas. La garantía aplica sólo al tipo y la "
189+ "cadena del *token*, ya que el espaciado entre *tokens* (posiciones de "
190+ "columna) pueden variar."
142191
143192#: ../Doc/library/tokenize.rst:91
144193msgid ""
145194"It returns bytes, encoded using the :data:`~token.ENCODING` token, which is "
146195"the first token sequence output by :func:`.tokenize`. If there is no "
147196"encoding token in the input, it returns a str instead."
148197msgstr ""
198+ "Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que es "
199+ "el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
200+ "hay un token de codificación en la entrada, retorna una cadena."
149201
150202#: ../Doc/library/tokenize.rst:96
151203msgid ""
152204":func:`.tokenize` needs to detect the encoding of source files it tokenizes. "
153205"The function it uses to do this is available:"
154206msgstr ""
207+ ":func:`.tokenize` necesita detectar la codificación de los ficheros fuente "
208+ "que convierte a tokens. La función que utiliza para hacer esto está "
209+ "disponible como:"
155210
156211#: ../Doc/library/tokenize.rst:101
157212msgid ""
158213"The :func:`detect_encoding` function is used to detect the encoding that "
159214"should be used to decode a Python source file. It requires one argument, "
160215"readline, in the same way as the :func:`.tokenize` generator."
161216msgstr ""
217+ "La función :func:`detect_encoding` se usa para detectar la codificación que "
218+ "debería usarse al leer un fichero fuente Python. Requiere un argumento, "
219+ "*readline*, del mismo modo que el generador :func:`.tokenize`."
162220
163221#: ../Doc/library/tokenize.rst:105
164222msgid ""
165223"It will call readline a maximum of twice, and return the encoding used (as a "
166224"string) and a list of any lines (not decoded from bytes) it has read in."
167225msgstr ""
226+ "Llamará a *readline* un máximo de dos veces, retornando la codificación "
227+ "usada, como cadena, y una lista del resto de líneas leídas, no "
228+ "descodificadas de *bytes*."
168229
169230#: ../Doc/library/tokenize.rst:109
170231msgid ""
@@ -173,83 +234,103 @@ msgid ""
173234"but disagree, a :exc:`SyntaxError` will be raised. Note that if the BOM is "
174235"found, ``'utf-8-sig'`` will be returned as an encoding."
175236msgstr ""
237+ "Detecta la codificación a partir de la presencia de una marca BOM UTF-8 o "
238+ "una *cookie* de codificación, como se especifica en :pep:`263`. Si ambas "
239+ "están presentes pero en desacuerdo, se lanzará un :exc:`SyntaxError`. "
240+ "Resaltar que si se encuentra la marca BOM, se retornará ``'utf-8-sig'`` como "
241+ "codificación."
176242
177243#: ../Doc/library/tokenize.rst:114
178244msgid ""
179245"If no encoding is specified, then the default of ``'utf-8'`` will be "
180246"returned."
181247msgstr ""
248+ "Si no se especifica una codificación, por defecto se retornará ``'utf-8'``."
182249
183250#: ../Doc/library/tokenize.rst:117
184251msgid ""
185252"Use :func:`.open` to open Python source files: it uses :func:"
186253"`detect_encoding` to detect the file encoding."
187254msgstr ""
255+ "Usa :func:`.open` para abrir ficheros fuente Python: Ésta utiliza :func:"
256+ "`detect_encoding` para detectar la codificación del fichero."
188257
189258#: ../Doc/library/tokenize.rst:123
190259msgid ""
191260"Open a file in read only mode using the encoding detected by :func:"
192261"`detect_encoding`."
193262msgstr ""
263+ "Abrir un fichero en modo sólo lectura usando la codificación detectada por :"
264+ "func:`detect_encoding`."
194265
195266#: ../Doc/library/tokenize.rst:130
196267msgid ""
197268"Raised when either a docstring or expression that may be split over several "
198269"lines is not completed anywhere in the file, for example::"
199270msgstr ""
271+ "Lanzada cuando una expresión o docstring que puede separarse en más líneas "
272+ "no está completa en el fichero, por ejemplo::"
200273
201274#: ../Doc/library/tokenize.rst:136
202275msgid "or::"
203- msgstr ""
276+ msgstr "o:: "
204277
205278#: ../Doc/library/tokenize.rst:142
206279msgid ""
207280"Note that unclosed single-quoted strings do not cause an error to be raised. "
208281"They are tokenized as :data:`~token.ERRORTOKEN`, followed by the "
209282"tokenization of their contents."
210283msgstr ""
284+ "Destacar que cadenas con comillas simples sin finalizar no lanzan un error. "
285+ "Se convertirán en tokens como :data:`~token.ERRORTOKEN`, seguido de la "
286+ "conversión de su contenido."
211287
212288#: ../Doc/library/tokenize.rst:150
213289msgid "Command-Line Usage"
214- msgstr ""
290+ msgstr "Uso como línea de comandos "
215291
216292#: ../Doc/library/tokenize.rst:154
217293msgid ""
218294"The :mod:`tokenize` module can be executed as a script from the command "
219295"line. It is as simple as:"
220296msgstr ""
297+ "El módulo :mod:`tokenize` se puede ejecutar como script desde la línea de "
298+ "comandos. Es tan simple como:"
221299
222300#: ../Doc/library/tokenize.rst:161
223301msgid "The following options are accepted:"
224- msgstr ""
302+ msgstr "Se aceptan las siguientes opciones: "
225303
226304#: ../Doc/library/tokenize.rst:167
227305msgid "show this help message and exit"
228- msgstr ""
306+ msgstr "muestra el mensaje de ayuda y sale "
229307
230308#: ../Doc/library/tokenize.rst:171
231309msgid "display token names using the exact type"
232- msgstr ""
310+ msgstr "muestra los nombres de token usando el tipo exacto "
233311
234312#: ../Doc/library/tokenize.rst:173
235313msgid ""
236314"If :file:`filename.py` is specified its contents are tokenized to stdout. "
237315"Otherwise, tokenization is performed on stdin."
238316msgstr ""
317+ "Si se especifica :file:`filename.py`, se convierte su contenido a tokens por "
318+ "la salida estándar. En otro caso, se convierte la entrada estándar."
239319
240320#: ../Doc/library/tokenize.rst:177
241321msgid "Examples"
242- msgstr ""
322+ msgstr "Ejemplos "
243323
244324#: ../Doc/library/tokenize.rst:179
245325msgid ""
246326"Example of a script rewriter that transforms float literals into Decimal "
247327"objects::"
248328msgstr ""
329+ "Ejemplo de un script que transforma literales float en objetos Decimal::"
249330
250331#: ../Doc/library/tokenize.rst:221
251332msgid "Example of tokenizing from the command line. The script::"
252- msgstr ""
333+ msgstr "Ejemplo de conversión desde la línea de comandos. El *script*:: "
253334
254335#: ../Doc/library/tokenize.rst:228
255336msgid ""
@@ -258,18 +339,25 @@ msgid ""
258339"column is the name of the token, and the final column is the value of the "
259340"token (if any)"
260341msgstr ""
342+ "se convertirá en la salida siguiente, donde la primera columna es el rango "
343+ "de coordenadas línea/columna donde se encuentra el token, la segunda columna "
344+ "es el nombre del token, y la última columna es el valor del token, si lo hay"
261345
262346#: ../Doc/library/tokenize.rst:256
263347msgid ""
264348"The exact token type names can be displayed using the :option:`-e` option:"
265349msgstr ""
350+ "Los nombres de tipos de token exactos se pueden mostrar con la opción :"
351+ "option:`-e`:"
266352
267353#: ../Doc/library/tokenize.rst:282
268354msgid ""
269355"Example of tokenizing a file programmatically, reading unicode strings "
270356"instead of bytes with :func:`generate_tokens`::"
271357msgstr ""
358+ "Ejemplo de tokenización de un fichero programáticamente, leyendo cadenas "
359+ "unicode en lugar de *bytes* con :func:`generate_tokens`::"
272360
273361#: ../Doc/library/tokenize.rst:292
274362msgid "Or reading bytes directly with :func:`.tokenize`::"
275- msgstr ""
363+ msgstr "O leyendo *bytes* directamente con :func:`.tokenize`:: "
0 commit comments