Incidencia de idiomas populares en la lengua española con Big Data: análisis masivo de datos mediante Amazon Elastic MapReduce y Google N-grams
La presente tesina analiza, diseña e implementa una solución para el problema de la detección de neologismos y extranjerismos en la lengua Española. Para este fin, realizamos un análisis de investigaciones previas y problemáticas surgidas, y decidimos realizar un aporte mediante un sistema de cloud...
Guardado en:
| Autor principal: | |
|---|---|
| Otros Autores: | |
| Formato: | Tesis Tesis de grado |
| Lenguaje: | Español |
| Publicado: |
2016
|
| Materias: | |
| Acceso en línea: | http://sedici.unlp.edu.ar/handle/10915/59489 |
| Aporte de: |
| id |
I19-R120-10915-59489 |
|---|---|
| record_format |
dspace |
| institution |
Universidad Nacional de La Plata |
| institution_str |
I-19 |
| repository_str |
R-120 |
| collection |
SEDICI (UNLP) |
| language |
Español |
| topic |
Ciencias Informáticas big data cloud computing neología extranjerismos |
| spellingShingle |
Ciencias Informáticas big data cloud computing neología extranjerismos De Luca, Julián Incidencia de idiomas populares en la lengua española con Big Data: análisis masivo de datos mediante Amazon Elastic MapReduce y Google N-grams |
| topic_facet |
Ciencias Informáticas big data cloud computing neología extranjerismos |
| description |
La presente tesina analiza, diseña e implementa una solución para el problema de la detección de neologismos y extranjerismos en la lengua Española. Para este fin, realizamos un análisis de investigaciones previas y problemáticas surgidas, y decidimos realizar un aporte mediante un sistema de cloud computing.
Nuestra solución se centra en el uso de tecnologías de análisis masivo de datos para el tratamiento de corpus grandes de una manera eficiente. Realizamos un repaso general de las tecnologías existentes, sin especificar herramientas puntuales, para luego introducir herramientas concisas. Logramos alcanzar una solución sencilla pero eficaz y escalable mediante el uso de herramientas provistas por Amazon Web Services, utilizando el corpus público llamado Google Books Ngrams.
Finalmente, abrimos la posibilidad de utilizar otras herramientas, y la misma metodología en otro tipo de estudios. Demostramos que logramos un aporte a la comunidad de lingüística computacional, y seguiremos trabajando en el tema en cuestión. |
| author2 |
Hasperué, Waldo |
| author_facet |
Hasperué, Waldo De Luca, Julián |
| format |
Tesis Tesis de grado |
| author |
De Luca, Julián |
| author_sort |
De Luca, Julián |
| title |
Incidencia de idiomas populares en la lengua española con Big Data: análisis masivo de datos mediante Amazon Elastic MapReduce y Google N-grams |
| title_short |
Incidencia de idiomas populares en la lengua española con Big Data: análisis masivo de datos mediante Amazon Elastic MapReduce y Google N-grams |
| title_full |
Incidencia de idiomas populares en la lengua española con Big Data: análisis masivo de datos mediante Amazon Elastic MapReduce y Google N-grams |
| title_fullStr |
Incidencia de idiomas populares en la lengua española con Big Data: análisis masivo de datos mediante Amazon Elastic MapReduce y Google N-grams |
| title_full_unstemmed |
Incidencia de idiomas populares en la lengua española con Big Data: análisis masivo de datos mediante Amazon Elastic MapReduce y Google N-grams |
| title_sort |
incidencia de idiomas populares en la lengua española con big data: análisis masivo de datos mediante amazon elastic mapreduce y google n-grams |
| publishDate |
2016 |
| url |
http://sedici.unlp.edu.ar/handle/10915/59489 |
| work_keys_str_mv |
AT delucajulian incidenciadeidiomaspopularesenlalenguaespanolaconbigdataanalisismasivodedatosmedianteamazonelasticmapreduceygooglengrams |
| bdutipo_str |
Repositorios |
| _version_ |
1764820478573150209 |