Chunking mit nltk

Wie kann ich das ganze Stück aus einem Satz erhalten, der ein Muster gegeben hat. Exemple

NP:{<NN><NN>} 

Satz markiert:

  • Python: gibt es eine bibliotheksfunktion zum chunking eines eingangsstroms?
  • Semantisches Parsing mit NLTK
  • Python schnellste Weg, um eine große Textdatei (mehrere GB)
  • Wie man eine iterable in konstant-size chunks [duplicate]
  • ValueError: Import von Daten über Chunks in pandas.csv_reader ()
  • Ne_chunk ohne pos_tag in NLTK
  •  [("money", "NN"), ("market", "NN") ("fund", "NN")] 

    Wenn ich pse, erhalte ich

     (S (NP money/NN market/NN) fund/NN) 

    Ich hätte gern auch die andere Alternative

     (S money/NN (NP market/NN fund/NN)) 

  • PYTHONPATH ignoriert
  • Einstellpfad im Terminal
  • Ändern des Verzeichnisses, in dem .pyc-Dateien erstellt werden
  • Python - Füge PYTHONPATH während des Befehlszeilenmoduls hinzu
  • Wie konvertiere ich ~ /. Weg zum absoluten Weg
  • Python sys.path Änderung funktioniert nicht
  • 2 Solutions collect form web for “Chunking mit nltk”

    Ich denke, deine Frage geht es darum, die n wahrscheinlichsten Parsen eines Satzes zu bekommen. Habe ich recht? Wenn ja, sehen Sie die Funktion nbest_parse(sent, n=None) in der 2.0 Dokumentation .

    @mbatchkarov hat Recht auf die nbest_parse Dokumentation. Zum Codebeispiel siehe:

     import nltk # Define the cfg grammar. grammar = nltk.parse_cfg(""" S -> NP S -> NN NP S -> NP NN NP -> NN NN NN -> 'market' NN -> 'money' NN -> 'fund' """) # Make your string into a list of tokens. sentence = "money market fund".split(" ") # Load the grammar into the ChartParser. cp = nltk.ChartParser(grammar) # Generate and print the nbest_parse from the grammar given the sentence tokens. for tree in cp.nbest_parse(sentence): print tree 
    Python ist die beste Programmiersprache der Welt.